Наняли бы вы на работу Океан Соляриса?
Три капкана на пути внедрения генеративного ИИ.
Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.
1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.
2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.
3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.
Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)
А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.
Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).
#ИнойИнтеллект #LLMvsHomo
* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.
1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.
Счастливо!
Три капкана на пути внедрения генеративного ИИ.
Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.
1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.
2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.
3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.
Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)
А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.
Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).
#ИнойИнтеллект #LLMvsHomo
* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.
1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.
Счастливо!
Nature
Larger and more instructable language models become less reliable
Nature - Scaling up and shaping up large language models increased their tendency to provide sensible yet incorrect answers at difficulty levels humans cannot supervise, highlighting the need for a...
Порог имитации.
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?
Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)
Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?
Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)
Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.
И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.
Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.
Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект
#ГенИИ #LLMvsHomo
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?
Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)
Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?
Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)
Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.
И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.
Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.
Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект
#ГенИИ #LLMvsHomo
Не время быть идиотами, ИИ может победить людей.
В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.
Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.
Модель Крабтри – лишь эвристическая гипотеза. Ибо проверить ее адекватность невозможно из-за отсутствия возможности провести эксперимент.
Но как иначе тогда, черт побери, объяснять такие вещи? (см. рисунок)
Вверху слева: оценки p(doom) – вероятности того, что развитие ИИ приведет человечество к гибели, по мнению ведущих специалистов ИИ
Оценка Дарио Амадеи (СЕО Anthropic), недавно провозгласившего, что ИИ станет для человечества «машиной благодатной милости»: 10-25%
Вверху справа: Метафорическая иллюстрация того, что такая оценка Амадеи близка к вероятности «русской рулетки», в которую человечество играет, выпуская в люди новые версии после GPT-4.
Внизу справа: оценки аналитиков Ситигруп перспектив развития ИИ: AGI в 2029, ASI с 2031.
Внизу слева их же оценки того, какие скилсы вам нужно развивать, чтобы ни AGI ни ASI не лишили вас работы: коммуникации, критическое мышление, эмоциональный интеллект, эмпатию …
Как тут не вспомнить гипотезу Крабтри, что планета превращается в мир идиотов.
И всем рекомендую помнить, что проф. Деан (один из самых известных в мире нейробиологов) уже 2 года призывает человечество задуматься: «Не время быть идиотами, ИИ может победить людей».
#ИИ #AGI #LLMvsHomo
В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.
Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.
Модель Крабтри – лишь эвристическая гипотеза. Ибо проверить ее адекватность невозможно из-за отсутствия возможности провести эксперимент.
Но как иначе тогда, черт побери, объяснять такие вещи? (см. рисунок)
Вверху слева: оценки p(doom) – вероятности того, что развитие ИИ приведет человечество к гибели, по мнению ведущих специалистов ИИ
Оценка Дарио Амадеи (СЕО Anthropic), недавно провозгласившего, что ИИ станет для человечества «машиной благодатной милости»: 10-25%
Вверху справа: Метафорическая иллюстрация того, что такая оценка Амадеи близка к вероятности «русской рулетки», в которую человечество играет, выпуская в люди новые версии после GPT-4.
Внизу справа: оценки аналитиков Ситигруп перспектив развития ИИ: AGI в 2029, ASI с 2031.
Внизу слева их же оценки того, какие скилсы вам нужно развивать, чтобы ни AGI ни ASI не лишили вас работы: коммуникации, критическое мышление, эмоциональный интеллект, эмпатию …
Как тут не вспомнить гипотезу Крабтри, что планета превращается в мир идиотов.
И всем рекомендую помнить, что проф. Деан (один из самых известных в мире нейробиологов) уже 2 года призывает человечество задуматься: «Не время быть идиотами, ИИ может победить людей».
#ИИ #AGI #LLMvsHomo
Открытие тысячелетия - создана универсальная модель человеческого познания.
И уж поверьте, - это важнее, чем выборы Трампа.
Вычислительная модель «Кентавр» способна точно (!) предсказывать и моделировать любое (!) человеческое поведение в любом (!) эксперименте из любой (!) области, который можно описать на естественном языке.
Это открытие сделано выдающимся коллективом из 15-ти ведущих мировых научных центров. И оно окажет прорывное влияние на когнитивные науки, бросая вызов существующей парадигме разработки вычислительных моделей человеческого разума.
Кратко это открытие можно описать так:
• если революционный прорыв ChatGPT показал человечеству, что ИИ-модели могут быть неотличимы от людей в любых действиях, основанных на использовании человеческих языков, -
• то революционный прорыв «Кентавра» показывает человечеству, что ИИ-модели могут быть неотличимы от людей по своему поведению в любых ситуациях и обстоятельствах, связанных с исследованием, планированием и научением.
Иными словами, ИИ-модели могут не только оперировать на наших языках неотличимо от нас, но и при этом вести себя, как неотличимые от нас разумные сущности.
Авторы исследования создали модель «Кентавр» путем дообучения открытой языкового модели Llama 3.1 70B на новом крупномасштабном наборе данных под названием Psych-101. Psych-101 – набор данных беспрецедентного масштаба. Он охватывая данные по каждому психологическому испытанию от более чем 60,000 участников, которые сделали более 10,000,000 актов выбора в 160 экспериментах.
«Кентавр» не только точнее моделирует поведение новых участников по сравнению с существующими когнитивными моделями, но и обобщает свои знания на новые контексты, модификации задач и совершенно новые области.
Более того, авторы обнаружили, что внутренние представления модели становятся более согласованными с человеческой нейронной активностью после дообучения модели.
Это открытие имеет реальные шансы стать универсальной моделью познания. Следующим шагом должно стать преобразование этой универсальной вычислительной модели в единую теорию человеческого познания.
#LLMvsHomo #Познание
И уж поверьте, - это важнее, чем выборы Трампа.
Вычислительная модель «Кентавр» способна точно (!) предсказывать и моделировать любое (!) человеческое поведение в любом (!) эксперименте из любой (!) области, который можно описать на естественном языке.
Это открытие сделано выдающимся коллективом из 15-ти ведущих мировых научных центров. И оно окажет прорывное влияние на когнитивные науки, бросая вызов существующей парадигме разработки вычислительных моделей человеческого разума.
Кратко это открытие можно описать так:
• если революционный прорыв ChatGPT показал человечеству, что ИИ-модели могут быть неотличимы от людей в любых действиях, основанных на использовании человеческих языков, -
• то революционный прорыв «Кентавра» показывает человечеству, что ИИ-модели могут быть неотличимы от людей по своему поведению в любых ситуациях и обстоятельствах, связанных с исследованием, планированием и научением.
Иными словами, ИИ-модели могут не только оперировать на наших языках неотличимо от нас, но и при этом вести себя, как неотличимые от нас разумные сущности.
Авторы исследования создали модель «Кентавр» путем дообучения открытой языкового модели Llama 3.1 70B на новом крупномасштабном наборе данных под названием Psych-101. Psych-101 – набор данных беспрецедентного масштаба. Он охватывая данные по каждому психологическому испытанию от более чем 60,000 участников, которые сделали более 10,000,000 актов выбора в 160 экспериментах.
«Кентавр» не только точнее моделирует поведение новых участников по сравнению с существующими когнитивными моделями, но и обобщает свои знания на новые контексты, модификации задач и совершенно новые области.
Более того, авторы обнаружили, что внутренние представления модели становятся более согласованными с человеческой нейронной активностью после дообучения модели.
Это открытие имеет реальные шансы стать универсальной моделью познания. Следующим шагом должно стать преобразование этой универсальной вычислительной модели в единую теорию человеческого познания.
#LLMvsHomo #Познание
Проверьте себя на понимание основ «Квантовой мяукомеханики».
Цель – сравнение вашего и иного интеллекта (ИИ)
Вопрос такой: объясните смысл этой картинки. Что хотели сказать ее авторы?
Здесь вы должны сделать паузу в чтении и попробовать дать свой ответ на поставленный вопрос.
Сделали?
Отлично!
А вот для сравнения ответы 2х ИИ.
Ответ ChatGPT 4o
Эта картинка смешно обыгрывает сложные квантовые концепции, используя котов, чтобы сделать их более доступными и забавными.
1. Кот Шрёдингера — один из самых известных мысленных экспериментов в квантовой механике, описывающий кота, который находится в суперпозиции состояний "жив" и "мертв" до момента наблюдения. На картинке кот сидит в коробке, символизируя эту неопределенность.
2. Кот де Бройля — волновой аспект частиц. На картинке кот растягивается в волну, чтобы показать, что частица в квантовом мире может быть описана как волна.
3. Кот Дирака — иллюстрирует положительное и отрицательное состояния, напоминающие античастицы. Положительный кот нарисован на коробке, а его "отрицательный" двойник виден как тень, чтобы показать античастицу.
4. Ферми-коты — иллюстрируют принцип запрета Паули, согласно которому два фермиона (частицы с полуцелым спином) не могут занимать одно и то же квантовое состояние. На картинке коты аккуратно рассажены по разным коробкам.
5. Бозе-коты — частицы, которые могут находиться в одном и том же состоянии (например, бозоны). Здесь показано множество котов в одной коробке, чтобы продемонстрировать их способность занимать одно квантовое состояние.
6. Кот Гейзенберга — представляет принцип неопределенности, согласно которому невозможно точно определить одновременно положение и импульс частицы. Кот разделен на части, чтобы показать неопределенность его положения и движения.
7. Кот Капицы — отсылка к физике сверхтекучих жидкостей. "Капица" — это имя физика, изучавшего сверхтекучесть. Лямбда-точка — температура, при которой жидкость становится сверхтекучей. Картинка показывает кота, который "течет" над и под уровнем жидкости, иллюстрируя это явление.
Ответ Claude 3 Haiku
Каждое из этих изображений кошек связано с ключевыми концепциями квантовой механики, наглядно демонстрируя фундаментальные принципы квантового мира с помощью забавных и запоминающихся образов.
1. Кот Шрёдингера: Это отсылка к парадоксу Шрёдингера, где кот в закрытой коробке может быть одновременно жив и мертв, пока его состояние не будет измерено. Это иллюстрирует квантовый принцип суперпозиции.
2. de Broglie Cat: Этот кот изображен волнообразно, что отсылает к теории де Бройля о волновой природе частиц. Согласно этой теории, частицы, такие как электроны, обладают не только свойствами частиц, но и волновыми свойствами.
3. Fermi Cats: Здесь изображены несколько одинаковых котов, что отсылает к статистике Ферми-Дирака, описывающей поведение одинаковых частиц, таких как электроны, которые подчиняются принципу Паули и не могут находиться в одном квантовом состоянии.
4. Bose Cats: В отличие от Fermi Cats, эти коты изображены в виде большой "кучи", что напоминает бозе-конденсат - состояние материи, в котором множество бозонов (частиц, не подчиняющихся принципу Паули) занимают одно и то же квантовое состояние.
5. Heisenberg Cat: Этот кот имеет сразу несколько возможных положений, отображая принцип неопределенности Гейзенберга, который говорит, что невозможно одновременно точно измерить сопряженные физические величины, такие как положение и импульс частицы.
6. Kapitsa Cat: Два кота, расположенные выше и ниже некой "точки", иллюстрируют концепцию, связанную с именем физика Петра Капицы, которая описывает квантовые свойства сверхтекучести.
P.S. По оценке моделей, ответить на их уровне детализации и понимания смогут лишь до 5 % людей
А мы сейчас это проверим.
А) Если вы смогли – ставьте 👍
Б) Если же нет – ставьте 🤯
Заодно узнаем, какой % читателей боится сравнить свой интеллект с иным (это покажет разница между числом просмотров и (А + Б) 😊
#LLMvsHomo
Цель – сравнение вашего и иного интеллекта (ИИ)
Вопрос такой: объясните смысл этой картинки. Что хотели сказать ее авторы?
Здесь вы должны сделать паузу в чтении и попробовать дать свой ответ на поставленный вопрос.
Сделали?
Отлично!
А вот для сравнения ответы 2х ИИ.
Ответ ChatGPT 4o
Эта картинка смешно обыгрывает сложные квантовые концепции, используя котов, чтобы сделать их более доступными и забавными.
1. Кот Шрёдингера — один из самых известных мысленных экспериментов в квантовой механике, описывающий кота, который находится в суперпозиции состояний "жив" и "мертв" до момента наблюдения. На картинке кот сидит в коробке, символизируя эту неопределенность.
2. Кот де Бройля — волновой аспект частиц. На картинке кот растягивается в волну, чтобы показать, что частица в квантовом мире может быть описана как волна.
3. Кот Дирака — иллюстрирует положительное и отрицательное состояния, напоминающие античастицы. Положительный кот нарисован на коробке, а его "отрицательный" двойник виден как тень, чтобы показать античастицу.
4. Ферми-коты — иллюстрируют принцип запрета Паули, согласно которому два фермиона (частицы с полуцелым спином) не могут занимать одно и то же квантовое состояние. На картинке коты аккуратно рассажены по разным коробкам.
5. Бозе-коты — частицы, которые могут находиться в одном и том же состоянии (например, бозоны). Здесь показано множество котов в одной коробке, чтобы продемонстрировать их способность занимать одно квантовое состояние.
6. Кот Гейзенберга — представляет принцип неопределенности, согласно которому невозможно точно определить одновременно положение и импульс частицы. Кот разделен на части, чтобы показать неопределенность его положения и движения.
7. Кот Капицы — отсылка к физике сверхтекучих жидкостей. "Капица" — это имя физика, изучавшего сверхтекучесть. Лямбда-точка — температура, при которой жидкость становится сверхтекучей. Картинка показывает кота, который "течет" над и под уровнем жидкости, иллюстрируя это явление.
Ответ Claude 3 Haiku
Каждое из этих изображений кошек связано с ключевыми концепциями квантовой механики, наглядно демонстрируя фундаментальные принципы квантового мира с помощью забавных и запоминающихся образов.
1. Кот Шрёдингера: Это отсылка к парадоксу Шрёдингера, где кот в закрытой коробке может быть одновременно жив и мертв, пока его состояние не будет измерено. Это иллюстрирует квантовый принцип суперпозиции.
2. de Broglie Cat: Этот кот изображен волнообразно, что отсылает к теории де Бройля о волновой природе частиц. Согласно этой теории, частицы, такие как электроны, обладают не только свойствами частиц, но и волновыми свойствами.
3. Fermi Cats: Здесь изображены несколько одинаковых котов, что отсылает к статистике Ферми-Дирака, описывающей поведение одинаковых частиц, таких как электроны, которые подчиняются принципу Паули и не могут находиться в одном квантовом состоянии.
4. Bose Cats: В отличие от Fermi Cats, эти коты изображены в виде большой "кучи", что напоминает бозе-конденсат - состояние материи, в котором множество бозонов (частиц, не подчиняющихся принципу Паули) занимают одно и то же квантовое состояние.
5. Heisenberg Cat: Этот кот имеет сразу несколько возможных положений, отображая принцип неопределенности Гейзенберга, который говорит, что невозможно одновременно точно измерить сопряженные физические величины, такие как положение и импульс частицы.
6. Kapitsa Cat: Два кота, расположенные выше и ниже некой "точки", иллюстрируют концепцию, связанную с именем физика Петра Капицы, которая описывает квантовые свойства сверхтекучести.
P.S. По оценке моделей, ответить на их уровне детализации и понимания смогут лишь до 5 % людей
А мы сейчас это проверим.
А) Если вы смогли – ставьте 👍
Б) Если же нет – ставьте 🤯
Заодно узнаем, какой % читателей боится сравнить свой интеллект с иным (это покажет разница между числом просмотров и (А + Б) 😊
#LLMvsHomo
Для 95% землян ИИ достиг нашего уровня.
А что про это думают остальные 5% - удел споров экспертов.
Рухнул последний рубеж массовых представлений о недостижимом для ИИ уровне знаний и умений – нашем человеческом уровне в творчестве.
За последние 2 года рухнули два предыдущие уровня обороны людей от посягательств все более умного и умелого в творчестве ИИ: изобразительное искусство (вкл. лица людей) и юмор.
Изображения ИИ стали неотличимы от реальности. Картины ИИ оцениваются как созданные человеком с большей вероятностью, чем настоящие созданные человеком [1]; созданные ИИ лица оцениваются как настоящие человеческие лица с большей вероятностью, чем настоящие фотографии людей [2], а созданный ИИ юмор так же смешон, как и созданные человеком шутки [3].
Последний рубеж – поэзия и литература держался дольше других.
И вот исследование Питтсбургского университета (случайная выборка 16+ тыс. участников-неэкспертов) снесло последний рубеж в поэзии [4].
• Сгенерированные ИИ стихи были оценены более благоприятно по нескольким качественным параметрам (поэтический ритм, красота языка …), что способствовало их ошибочной идентификации как написанных человеком.
• Подобно сгенерированным ИИ картинам и лицам, сгенерированные ИИ стихи теперь «более человечны, чем люди»: исследователи обнаружили, что участники с большей вероятностью считают, что сгенерированные ИИ стихи написаны человеком, по сравнению с фактическими стихами, написанными людьми.
• При этом участники оценивали стихи более негативно, когда им говорили, что это стихи ИИ, и более позитивно, когда им говорили, что это стихи написанные людьми.
Что тут скажешь в дополнение? Да вот что.
У специалистов околоИИшных областей (от информатики до нейробиологии) нет не только единого определения сильного ИИ (AGI), но и понимания, как определить, что ИИ уровня AGI появился.
У простого же народа (неэкспертов) с этими заморочками существенно проще. Если для большинства из них деятельность ИИ (его поведение, работа, творчество) неотличима от деятельности людей, можно считать, что ИИ достиг уровня AGI.
С позиции неэкспертов в настоящий момент в области ИИ имеем следующее.
1. Поведение ИИ уже неотличимо от человеческого, по крайней мере, на уровне языкового поведения. О неязыковом поведении речь пока не идет. Ибо для такового ИИ должен быть отелеснен (иначе как он сможет проявлять свое неязыковое поведение). Эта неотличимость ИИ от людей зафиксирована разнообразными тестами. Они, возможно, в чем-то несовершенны, но других пока нет.
Т.е. по критерию «поведение» (языковое) ИИ уже достиг человеческого уровня.
2. Работа. Число профессиональных тестов, показывающих уровень знаний и навыков ИИ на уровне топ 10% работающих здесь людей, уже составляет десятки. Это число продолжает быстро расти. И если мы не вправе пока сказать, что ИИ не может сравниться с ТОР 10% работающих в какой-то специальности, то, вполне возможно, лишь потому, что для этой специальности еще не разработан надежный тест.
Т.е. по критерию «работа» ИИ уже достиг человеческого уровня для многих работ. И по мере совершенствования ИИ, и разработки новых тестов, недостижимых для ИИ интеллектуальных работ (где бы они были на уровне ТОР 10%) уже в 2025 останется мало.
3. Творчество. Про поэзию написано выше. А что с литературой? Исследования типа Питтсбургского на подходе. А пока они завершаются, можете удостовериться, что уровень массового чтива (типа «Код да Винчи» - тираж 60 млн на 40 языков) для ИИ запросто достижим.
Вот пример от Итана Молика [5], попросившего ИИ:
«Клод, мне нужна вымышленная глубокая альтернативная история в духе Тима Пауэрса, Мэтью Росси или Пинчона» … «Копай глубже: Гамильтон действительно нацарапал уравнение на мосту, Август Де Морган существовал на самом деле, действительно было движение литовских книгоношей...»
Результат улетный:
КВАТЕРНИОННАЯ ЕРЕСЬ: МАТЕМАТИКА КАК ЗАРАЗНОЕ МЫШЛЕНИЕ
#AGI #LLMvsHomo
А что про это думают остальные 5% - удел споров экспертов.
Рухнул последний рубеж массовых представлений о недостижимом для ИИ уровне знаний и умений – нашем человеческом уровне в творчестве.
За последние 2 года рухнули два предыдущие уровня обороны людей от посягательств все более умного и умелого в творчестве ИИ: изобразительное искусство (вкл. лица людей) и юмор.
Изображения ИИ стали неотличимы от реальности. Картины ИИ оцениваются как созданные человеком с большей вероятностью, чем настоящие созданные человеком [1]; созданные ИИ лица оцениваются как настоящие человеческие лица с большей вероятностью, чем настоящие фотографии людей [2], а созданный ИИ юмор так же смешон, как и созданные человеком шутки [3].
Последний рубеж – поэзия и литература держался дольше других.
И вот исследование Питтсбургского университета (случайная выборка 16+ тыс. участников-неэкспертов) снесло последний рубеж в поэзии [4].
• Сгенерированные ИИ стихи были оценены более благоприятно по нескольким качественным параметрам (поэтический ритм, красота языка …), что способствовало их ошибочной идентификации как написанных человеком.
• Подобно сгенерированным ИИ картинам и лицам, сгенерированные ИИ стихи теперь «более человечны, чем люди»: исследователи обнаружили, что участники с большей вероятностью считают, что сгенерированные ИИ стихи написаны человеком, по сравнению с фактическими стихами, написанными людьми.
• При этом участники оценивали стихи более негативно, когда им говорили, что это стихи ИИ, и более позитивно, когда им говорили, что это стихи написанные людьми.
Что тут скажешь в дополнение? Да вот что.
У специалистов околоИИшных областей (от информатики до нейробиологии) нет не только единого определения сильного ИИ (AGI), но и понимания, как определить, что ИИ уровня AGI появился.
У простого же народа (неэкспертов) с этими заморочками существенно проще. Если для большинства из них деятельность ИИ (его поведение, работа, творчество) неотличима от деятельности людей, можно считать, что ИИ достиг уровня AGI.
С позиции неэкспертов в настоящий момент в области ИИ имеем следующее.
1. Поведение ИИ уже неотличимо от человеческого, по крайней мере, на уровне языкового поведения. О неязыковом поведении речь пока не идет. Ибо для такового ИИ должен быть отелеснен (иначе как он сможет проявлять свое неязыковое поведение). Эта неотличимость ИИ от людей зафиксирована разнообразными тестами. Они, возможно, в чем-то несовершенны, но других пока нет.
Т.е. по критерию «поведение» (языковое) ИИ уже достиг человеческого уровня.
2. Работа. Число профессиональных тестов, показывающих уровень знаний и навыков ИИ на уровне топ 10% работающих здесь людей, уже составляет десятки. Это число продолжает быстро расти. И если мы не вправе пока сказать, что ИИ не может сравниться с ТОР 10% работающих в какой-то специальности, то, вполне возможно, лишь потому, что для этой специальности еще не разработан надежный тест.
Т.е. по критерию «работа» ИИ уже достиг человеческого уровня для многих работ. И по мере совершенствования ИИ, и разработки новых тестов, недостижимых для ИИ интеллектуальных работ (где бы они были на уровне ТОР 10%) уже в 2025 останется мало.
3. Творчество. Про поэзию написано выше. А что с литературой? Исследования типа Питтсбургского на подходе. А пока они завершаются, можете удостовериться, что уровень массового чтива (типа «Код да Винчи» - тираж 60 млн на 40 языков) для ИИ запросто достижим.
Вот пример от Итана Молика [5], попросившего ИИ:
«Клод, мне нужна вымышленная глубокая альтернативная история в духе Тима Пауэрса, Мэтью Росси или Пинчона» … «Копай глубже: Гамильтон действительно нацарапал уравнение на мосту, Август Де Морган существовал на самом деле, действительно было движение литовских книгоношей...»
Результат улетный:
КВАТЕРНИОННАЯ ЕРЕСЬ: МАТЕМАТИКА КАК ЗАРАЗНОЕ МЫШЛЕНИЕ
#AGI #LLMvsHomo
“Революция ChatGPT” запустила 2й этап переформатирования мира и разума людей в цифру
(анонс нового лонгрида)
1й этап – начавшийся в 2000-х бум социальных сетей – привел к лавинообразному перемещению социальных взаимодействий людей в цифровую среду Интернета с последующей трансформацией, а порой и полным замещением путей, способов и механизмов социальных коммуникаций, формировавшихся несколько тысячелетий генно-культурной коэволюции людей.
2-й этап – распространение больших языковых моделей, – принимая эстафету от соцсетей, может стать еще более сильным катализатором переформатирования мира и человека. Ибо теперь будут радикально меняться уже не только пути и способы социальных коммуникаций, но и механизмы осуществления социально-когнитивных функций людей и их агентности.
Спектр влияния LLM на социально-когнитивные механизмы людей пока точно неизвестен. Но гипотетически LLM способны влиять даже на основу основ социальной жизни общества – его социальные нормы (неписаные правила, предписывающие, что люди должны и что не должны делать для решения социальных, экологических и медицинских проблем, с которыми сталкиваются общества).
Так ли это?
Мой новый лонгрид «Трайбализм ИИ-моделей ведет мир к цифровой холодной войне» (37 стр., 25 рис., 37 ссылок) - одна из первых попыток (а может и просто первая) создать подобие строительных лесов, позволяющих дальше строить некий трансдисциплинарный интеллектуальный каркас исследований всего комплекса вопросов начинающегося культурного сдвига, порождаемого (впервые в истории человечества) объединением людей и машин.
Подписчики моих лонгридов могут прочесть этот новый текст
на Boosty, Patreon, VK и (это новация) на Дзене.
#АлгокогнитивнаяКультура #СоциальныеСети #LLMvsHomo #Вызовы21века
(анонс нового лонгрида)
1й этап – начавшийся в 2000-х бум социальных сетей – привел к лавинообразному перемещению социальных взаимодействий людей в цифровую среду Интернета с последующей трансформацией, а порой и полным замещением путей, способов и механизмов социальных коммуникаций, формировавшихся несколько тысячелетий генно-культурной коэволюции людей.
2-й этап – распространение больших языковых моделей, – принимая эстафету от соцсетей, может стать еще более сильным катализатором переформатирования мира и человека. Ибо теперь будут радикально меняться уже не только пути и способы социальных коммуникаций, но и механизмы осуществления социально-когнитивных функций людей и их агентности.
Спектр влияния LLM на социально-когнитивные механизмы людей пока точно неизвестен. Но гипотетически LLM способны влиять даже на основу основ социальной жизни общества – его социальные нормы (неписаные правила, предписывающие, что люди должны и что не должны делать для решения социальных, экологических и медицинских проблем, с которыми сталкиваются общества).
Так ли это?
Мой новый лонгрид «Трайбализм ИИ-моделей ведет мир к цифровой холодной войне» (37 стр., 25 рис., 37 ссылок) - одна из первых попыток (а может и просто первая) создать подобие строительных лесов, позволяющих дальше строить некий трансдисциплинарный интеллектуальный каркас исследований всего комплекса вопросов начинающегося культурного сдвига, порождаемого (впервые в истории человечества) объединением людей и машин.
Подписчики моих лонгридов могут прочесть этот новый текст
на Boosty, Patreon, VK и (это новация) на Дзене.
#АлгокогнитивнаяКультура #СоциальныеСети #LLMvsHomo #Вызовы21века
Что оказалось за дверью в бездну черного ящика ИИ.
Новые откровения сверхважного прорыва в понимании механизмов разума машин и людей.
Как я писал в мае, «внутри черного ящика оказалась дверь в бездну». Речь шла о 1й успешной попытке компании Anthropic вскрыть черный ящик генеративного ИИ больших языковых моделей. Это был реально сверхважный прорыв, без которого все разговоры о том, что скрывается внутри внечеловеческого разума моделей, оставались чистыми спекуляциями.
Колоссальным откровением той работы было то, что за дверью черного ящика одной из самых больших на тот момент моделей семейства Claude оказался не ожидаемый многими «стохастический попугай», а таящийся там куда боле мощный ИИ. Его основу, как предположили исследователи, составляет мультимодальная гиперсеть моносемантических «субнейронов», образующих в гиперсети нечто похожее на коги (в теории когнитома Константина Анохина так называются элементарные единицы опыта, кодирующие соотношение целого организма с теми или иными аспектами мира).
Тогда же исследователям удалось на практике показать сильную уязвимость внечеловеческого (а возможно, и человеческого) разума. Когда воздействие всего на один такой «ког» вело к изменению матрицы «личности» модели. Например, усиление роли функции «Мост Золотые Ворота» вызвало у Клода кризис идентичности, который даже Хичкок не мог себе представить.
Два новых исследования приоткрывают дверь в бездну черного ящика моделей пошире. И теперь за ней можно разглядеть кое-что из того:
• как устроена гиперсеть
• и что она в себе скрывает
1е исследование предлагает объяснение сверхэффективной кросс-модальной когнитивности, описанной мною в лонгриде «Слепые гении живописи». Исследование отвечает на поставленный мною в лонгриде вопрос: как эти модели, построенные на одном наборе параметров, умудряются обрабатывать и понимать такой разнообразный диапазон входных данных, от разных языков до кода, арифметики и даже изображений и звука?
В этой статье предлагается интригующий ответ: «гипотеза семантического хаба». Основная идея проста, но глубока. Вместо того чтобы полагаться на отдельные специализированные отсеки для каждого типа данных, LLM изучают общее пространство представления — «семантический хаб», — где семантически схожие концепции группируются вместе, независимо от их первоначальной формы.
Если 1е исследование предлагает гипотезу, частично объясняющую устройства гиперсети, то 2е исследует, что эта гиперсеть в себе скрывает.
Авторы показывают, что за дверью черного ящика LLM не просто скрыт куда больший интеллект, что проявляется в диалогах с ним. Оказывается, что этот интеллект «скрывает» от общающихся с ним людей целые букеты своих секретных способностей, которые нельзя выявить через примитивные (naive) запросы пользователей.
И чтобы как-то выявить эти скрытые способности, необходим сложный комплекс мер «допроса модели», раскрывающих её скрытую реальную "компетентность" (а не ту компетентность, что она демонстрирует в ответах на примитивные запросы «белковых мешков»).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Новые откровения сверхважного прорыва в понимании механизмов разума машин и людей.
Как я писал в мае, «внутри черного ящика оказалась дверь в бездну». Речь шла о 1й успешной попытке компании Anthropic вскрыть черный ящик генеративного ИИ больших языковых моделей. Это был реально сверхважный прорыв, без которого все разговоры о том, что скрывается внутри внечеловеческого разума моделей, оставались чистыми спекуляциями.
Колоссальным откровением той работы было то, что за дверью черного ящика одной из самых больших на тот момент моделей семейства Claude оказался не ожидаемый многими «стохастический попугай», а таящийся там куда боле мощный ИИ. Его основу, как предположили исследователи, составляет мультимодальная гиперсеть моносемантических «субнейронов», образующих в гиперсети нечто похожее на коги (в теории когнитома Константина Анохина так называются элементарные единицы опыта, кодирующие соотношение целого организма с теми или иными аспектами мира).
Тогда же исследователям удалось на практике показать сильную уязвимость внечеловеческого (а возможно, и человеческого) разума. Когда воздействие всего на один такой «ког» вело к изменению матрицы «личности» модели. Например, усиление роли функции «Мост Золотые Ворота» вызвало у Клода кризис идентичности, который даже Хичкок не мог себе представить.
Два новых исследования приоткрывают дверь в бездну черного ящика моделей пошире. И теперь за ней можно разглядеть кое-что из того:
• как устроена гиперсеть
• и что она в себе скрывает
1е исследование предлагает объяснение сверхэффективной кросс-модальной когнитивности, описанной мною в лонгриде «Слепые гении живописи». Исследование отвечает на поставленный мною в лонгриде вопрос: как эти модели, построенные на одном наборе параметров, умудряются обрабатывать и понимать такой разнообразный диапазон входных данных, от разных языков до кода, арифметики и даже изображений и звука?
В этой статье предлагается интригующий ответ: «гипотеза семантического хаба». Основная идея проста, но глубока. Вместо того чтобы полагаться на отдельные специализированные отсеки для каждого типа данных, LLM изучают общее пространство представления — «семантический хаб», — где семантически схожие концепции группируются вместе, независимо от их первоначальной формы.
Если 1е исследование предлагает гипотезу, частично объясняющую устройства гиперсети, то 2е исследует, что эта гиперсеть в себе скрывает.
Авторы показывают, что за дверью черного ящика LLM не просто скрыт куда больший интеллект, что проявляется в диалогах с ним. Оказывается, что этот интеллект «скрывает» от общающихся с ним людей целые букеты своих секретных способностей, которые нельзя выявить через примитивные (naive) запросы пользователей.
И чтобы как-то выявить эти скрытые способности, необходим сложный комплекс мер «допроса модели», раскрывающих её скрытую реальную "компетентность" (а не ту компетентность, что она демонстрирует в ответах на примитивные запросы «белковых мешков»).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Обмани меня, ИИ, - если сможешь.
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.
Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.
Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.
Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.
А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?
Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.
Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.
Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.
И тогда сливай воду, Homo sapiens, в искусстве универсального блефа.
#LLMvsHomo
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.
Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.
Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.
Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.
А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?
Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.
Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.
Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.
И тогда сливай воду, Homo sapiens, в искусстве универсального блефа.
#LLMvsHomo
Пора задуматься о перемене участи.
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
Нужно срочно учиться жить с машинами, более разумными, чем мы сами.
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».
Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.
Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.
Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.
Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.
Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?
Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.
Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?
Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?
Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?
#LLMvsHomo
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».
Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.
Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.
Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.
Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.
Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?
Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.
Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?
Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?
Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?
#LLMvsHomo
К концу 2025 класс юриста будет на 90% определяться классом его ИИ-ассистента.
Модели рассуждений совершили прорыв в квалификации навыков и производительности юридической практики.
Первое рандомизированное контролируемое исследование, оценивало выполнение студентам-юристам старших курсов шести юридических задач с использованием:
- юридического инструмента ИИ на основе RAG (Vincent AI),
- модели рассуждений ИИ (O1-preview OpenAI)
- или без ИИ (как это привычно делают и по сей день юристы всего мира).
Исследование показало:
• Оба инструмента ИИ значительно повысили качество юридической работы.
Помощь ИИ значительно повышает производительность в пяти из шести протестированных юридических задач, причем:
- Vincent дает статистически значимый прирост примерно от 38% до 115%
- o1-preview увеличивает производительность от 34% до 140%, с особенно сильным эффектом в сложных задачах, таких как составление убедительных юридический писем и анализ юридических жалоб.
• Использование моделей рассуждений улучшают не только ясность, организацию и профессионализм юридической работы, но также глубину и строгость самого юридического анализа.
• Количество галлюцинаций оказалось крайне невелико. А у Vincent AI оно было примерно таким же, как и у студентов-юристов, которые вообще не использовали ИИ (увы, но и люди склонны к конфабуляциям).
• Полученные результаты резко контрастируют с предыдущими исследованиями, изучавшими старые большие языковые модели, такие как GPT-4.
Иными словами, произошел прорыв, связанный с появлениям у моделей способности рассуждать.
Главных выводов два.
1. Результаты исследования убедительно показали, что интеграция возможностей RAG, специфичных для предметной области, с моделями рассуждений даёт прорывное синергетическое улучшение уровня юридической компетенции и производительности труда.
2. Такие результаты не только знаменуют очень скорый приход следующего поколения юридических инструментов на основе ИИ, но и кардинально изменит будущее адвокатуры в целом.
#LLMvsHomo
Модели рассуждений совершили прорыв в квалификации навыков и производительности юридической практики.
Первое рандомизированное контролируемое исследование, оценивало выполнение студентам-юристам старших курсов шести юридических задач с использованием:
- юридического инструмента ИИ на основе RAG (Vincent AI),
- модели рассуждений ИИ (O1-preview OpenAI)
- или без ИИ (как это привычно делают и по сей день юристы всего мира).
Исследование показало:
• Оба инструмента ИИ значительно повысили качество юридической работы.
Помощь ИИ значительно повышает производительность в пяти из шести протестированных юридических задач, причем:
- Vincent дает статистически значимый прирост примерно от 38% до 115%
- o1-preview увеличивает производительность от 34% до 140%, с особенно сильным эффектом в сложных задачах, таких как составление убедительных юридический писем и анализ юридических жалоб.
• Использование моделей рассуждений улучшают не только ясность, организацию и профессионализм юридической работы, но также глубину и строгость самого юридического анализа.
• Количество галлюцинаций оказалось крайне невелико. А у Vincent AI оно было примерно таким же, как и у студентов-юристов, которые вообще не использовали ИИ (увы, но и люди склонны к конфабуляциям).
• Полученные результаты резко контрастируют с предыдущими исследованиями, изучавшими старые большие языковые модели, такие как GPT-4.
Иными словами, произошел прорыв, связанный с появлениям у моделей способности рассуждать.
Главных выводов два.
1. Результаты исследования убедительно показали, что интеграция возможностей RAG, специфичных для предметной области, с моделями рассуждений даёт прорывное синергетическое улучшение уровня юридической компетенции и производительности труда.
2. Такие результаты не только знаменуют очень скорый приход следующего поколения юридических инструментов на основе ИИ, но и кардинально изменит будущее адвокатуры в целом.
#LLMvsHomo
Эволюции будут нужны лишь суперпрофессионалы и гении.
Люди средних способностей уже проигрывают ИИ почти во всем.
Месяц назад я писал «Пора задуматься о перемене участи. Так ли уж ИИ будут нужны «кожаные мешки»?» Поводом было исследование, показавшее, что в 6 медицинских практиках «ИИ без врача» лучше врача-человека, работающего вместе с ИИ.
Что скрывать. Даже после начала революции ChatGPT сохранялась надежда, что медицина не шахматы, и всеведущая, но тупая машина врачей не превзойдет. Но оказалось, что еще как превзойдет.
А спустя месяц, вслед за интеллектуальным превосходством врачей, обрушилось интеллектуальное превосходство юмористов. Оказалось, что и шутить ИИ может получше людей.
Что LLM способны неплохо шутить, стало ясно уже после выхода ChatGPT 3.5. Но все же до чувства юмора людей этой модели было далеко.
Новейшее исследование модели GPT-4o поставило людей на заслуженное нами место – юмор рядового человека менее смешон и оригинален, чем юмор GPT-4o.
Проверяли со всей научной тщательностью и дотошностью на задаче генерации мемов - специфичной для конкретной культуры форме творческого самовыражения, основанной на юморе.
Мемы генерировали люди, GPT-4o и совместно люди + GPT-4o.
Каждый сгенерированный мем краудсорсеры оценивали по трем характеристикам: насколько он смешной, креативный и виральный.
Итог таков:
1. Мемы модели, в среднеи, оказались лучше мемов людей
2. При совместной работе (люди + GPT-4o) мемы генерились быстрее и с меньшими трудозатратами людей, но результат получался хуже, чем у GPT-4o.
3. Но все сказанное в пп 1 и 2 – это в среднем. Самые смешные мемы получались-таки у людей. Т.е. ИИ может повышать производительность и создавать контент, нравящийся широкой аудитории. Но для генерации контента высшего уровня нужны люди.
Главный итог исследования подтвердил закономерность.
✔️ ИИ сильнее людей средних способностей практически во всем: от рекламы до стихов и от диагностики до юмора;
✔️ Но суперпрофессионалы и гении практически во всем сильнее ИИ (кроме задач с фиксированными правилами: шахматы, Го …)
Отсюда напрашивается вопрос:
Зачем культурной коэволюции двух носителей высшего интеллекта (людей и ИИ) люди средних способностей?
Один вариант ответа – чтобы работать «гео-теплотехниками» при киборгах.
А еще варианты есть? Не понятно.
Ну и чтоб не заканчивать на пессимистической ноте, вот пример анекдота с элементом черного юмора про программиста на необитаемом острове, который был мгновенно придуман по моей просьбе моделью Claude 3.7 Sonnet.
По-моему, совсем неплохо 😊
#LLMvsHomo #FutureOfCivilization
Люди средних способностей уже проигрывают ИИ почти во всем.
Месяц назад я писал «Пора задуматься о перемене участи. Так ли уж ИИ будут нужны «кожаные мешки»?» Поводом было исследование, показавшее, что в 6 медицинских практиках «ИИ без врача» лучше врача-человека, работающего вместе с ИИ.
Что скрывать. Даже после начала революции ChatGPT сохранялась надежда, что медицина не шахматы, и всеведущая, но тупая машина врачей не превзойдет. Но оказалось, что еще как превзойдет.
А спустя месяц, вслед за интеллектуальным превосходством врачей, обрушилось интеллектуальное превосходство юмористов. Оказалось, что и шутить ИИ может получше людей.
Что LLM способны неплохо шутить, стало ясно уже после выхода ChatGPT 3.5. Но все же до чувства юмора людей этой модели было далеко.
Новейшее исследование модели GPT-4o поставило людей на заслуженное нами место – юмор рядового человека менее смешон и оригинален, чем юмор GPT-4o.
Проверяли со всей научной тщательностью и дотошностью на задаче генерации мемов - специфичной для конкретной культуры форме творческого самовыражения, основанной на юморе.
Мемы генерировали люди, GPT-4o и совместно люди + GPT-4o.
Каждый сгенерированный мем краудсорсеры оценивали по трем характеристикам: насколько он смешной, креативный и виральный.
Итог таков:
1. Мемы модели, в среднеи, оказались лучше мемов людей
2. При совместной работе (люди + GPT-4o) мемы генерились быстрее и с меньшими трудозатратами людей, но результат получался хуже, чем у GPT-4o.
3. Но все сказанное в пп 1 и 2 – это в среднем. Самые смешные мемы получались-таки у людей. Т.е. ИИ может повышать производительность и создавать контент, нравящийся широкой аудитории. Но для генерации контента высшего уровня нужны люди.
Главный итог исследования подтвердил закономерность.
✔️ ИИ сильнее людей средних способностей практически во всем: от рекламы до стихов и от диагностики до юмора;
✔️ Но суперпрофессионалы и гении практически во всем сильнее ИИ (кроме задач с фиксированными правилами: шахматы, Го …)
Отсюда напрашивается вопрос:
Зачем культурной коэволюции двух носителей высшего интеллекта (людей и ИИ) люди средних способностей?
Один вариант ответа – чтобы работать «гео-теплотехниками» при киборгах.
А еще варианты есть? Не понятно.
Ну и чтоб не заканчивать на пессимистической ноте, вот пример анекдота с элементом черного юмора про программиста на необитаемом острове, который был мгновенно придуман по моей просьбе моделью Claude 3.7 Sonnet.
По-моему, совсем неплохо 😊
Программист потерпел кораблекрушение и оказался на необитаемом острове. После месяца выживания он нашёл древнюю лампу с джинном.
Джинн говорит: "Дам тебе на этом острове все что попросишь, но твое желание должно быть сформулировано в виде компьютерного кода."
Программист пишет на песке: "while(true){island.resources = infinity;}"
Джинн щёлкнул пальцами, и программист мгновенно умер.
В логе ошибки было написано: "Обнаружен бесконечный цикл. Процесс аварийно остановлен."
#LLMvsHomo #FutureOfCivilization
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Пять ступеней участия человека: проверьте, на каком уровне ваша работа переживёт ИИ-революцию
“Шкала участия человека” и «Карта хочу-могу» разложили 844 профзадачи по цветам светофора — узнайте, в какой зоне окажутся ваши навыки в 2026
Впервые стэнфордское исследование совместило пятиуровневую «шкалу участия человека» с «картой хочу-могу» для 844 профзадач, превратив туманную дискуссию об автоматизации в чёткую дорожную карту того, какие профессии ИИ поглотит в первую очередь и где человеческие навыки резко вырастут в цене.
Если отбросить самых упертосамоуверенных, что человек – венец природы, а ИИ – стохастический попугай, аргументация технооптимистов стоит на 2х ключевых тезисах:
✔️ Как и при всех прошлых технореволюциях, одни профессии исчезнут, но другие появятся, и потому, в большинстве своем, люди останутся при деле, лишь поменяв профессии.
✔️ Поскольку ИИ просто не способен заменить человека во всем, будущее за гибридными «Профкентаврами людей и ИИ», где и людям, и ИИ-агентам найдется достойное место.
Авторы нового (крайне важного сменой угла зрения и прорывного по методологии) исследования Стэнфордского универа показали примитивность и практическую бесполезность обоих ключевых тезисов.
• Они хороши, если использовать их в общефилософских дебатах.
• Но они ничего не дают для выстраивания системы социально-человеческих измерений и внедрения инструментов прогнозирования, необходимых для адаптации общества к цунами грядущего массового внедрения LLM-агентов во все индустрии и на все уровни экономики.
Что было сделано
104 профессии были разложены на 844 задач оценили по двум измерениям:
🪼куда люди хотят пустить ИИ-агентов
🪼и где это технически возможно
Авторы посмотрели на потенциал гибридизации людей и ИИ не с общих позиций, а конкретно:
🪼хорошо, внедрим профкентавров
🪼так сколько тогда людей в рабочем контуре останется (столько же? больше? меньше чем было?)
Для ответа на этот вопрос появилась “Шкала участия человека” Human Agency Scale: пятиуровневая шкала H1–H5, показывающая, сколько человеческого участия требуется при выполнении задачи совместно с ИИ-агентом.
2) Потом авторы составили «Карту желаний и возможностей» («Карту хочу-могу» Desire × Capability), чтобы оценить:
🪼где люди сами просят автоматизировать задачи, а где ИИ-агенты готовы заменить их вопреки желанию
🪼где автоматизация включит «зелёный свет», а в каких профессиях вырастет ценность человеческого участия.
Получился двумерный «ландшафт» задач, разбитый на зоны «зелёный свет», «красный свет», «R&D-возможность» и «низкий приоритет» в зависимости от того, насколько работники хотят автоматизации и насколько она технически возможна.
Ключевые «новинки» исследования
Шкала участия человека наконец-то позволила измерить единой линейкой, сколько человека должно оставаться в контуре. Это важно для практики: помогает выбирать между полной автоматизацией и ко-работой.
Карта хочу-могу предоставила разбивка задач на Зеленый цвет (хотим + можем), Красный (можем, но люди против), Надо разрабатывать R&D Opportunity (хотим, но пока не умеем) и Пока неважно Low Priority. Это даёт быстрый «радар» для инвестиций и политики занятости.
Заточенная на профессии Worker-centric оптика показала, что статистика использования (например, логи Claude.ai) плохо отражает реальный спрос: профессии с самым высоким запросом на автоматизацию составляют лишь 1,26 % текущего использования LLM-чатов.
Выявлены конкретные сигналы пересборки навыков. Проведенный анализ связывает каждую задачу с O*NET-скиллами ()база Occupational Information Network Министерства труда США) и показывает: ценность скилов типа «анализа данных» уходит вниз, а «налаживания отношений» и «координации ресурсов» — вверх. Это добавляет стратегический слой к чисто количественной оценке прироста производительности.
Почему это принципиально
✔️Про смену угла зрения сказано выше
✔️2 новые карты можно прямо вкручивать в программы рескиллинга, фильтры грантов и регуляторные «светофоры»
✔️Риск «красной зоны» - там возможна социальная турбулентность
#LLMvsHomo
“Шкала участия человека” и «Карта хочу-могу» разложили 844 профзадачи по цветам светофора — узнайте, в какой зоне окажутся ваши навыки в 2026
Впервые стэнфордское исследование совместило пятиуровневую «шкалу участия человека» с «картой хочу-могу» для 844 профзадач, превратив туманную дискуссию об автоматизации в чёткую дорожную карту того, какие профессии ИИ поглотит в первую очередь и где человеческие навыки резко вырастут в цене.
Если отбросить самых упертосамоуверенных, что человек – венец природы, а ИИ – стохастический попугай, аргументация технооптимистов стоит на 2х ключевых тезисах:
✔️ Как и при всех прошлых технореволюциях, одни профессии исчезнут, но другие появятся, и потому, в большинстве своем, люди останутся при деле, лишь поменяв профессии.
✔️ Поскольку ИИ просто не способен заменить человека во всем, будущее за гибридными «Профкентаврами людей и ИИ», где и людям, и ИИ-агентам найдется достойное место.
Авторы нового (крайне важного сменой угла зрения и прорывного по методологии) исследования Стэнфордского универа показали примитивность и практическую бесполезность обоих ключевых тезисов.
• Они хороши, если использовать их в общефилософских дебатах.
• Но они ничего не дают для выстраивания системы социально-человеческих измерений и внедрения инструментов прогнозирования, необходимых для адаптации общества к цунами грядущего массового внедрения LLM-агентов во все индустрии и на все уровни экономики.
Что было сделано
104 профессии были разложены на 844 задач оценили по двум измерениям:
🪼куда люди хотят пустить ИИ-агентов
🪼и где это технически возможно
Авторы посмотрели на потенциал гибридизации людей и ИИ не с общих позиций, а конкретно:
🪼хорошо, внедрим профкентавров
🪼так сколько тогда людей в рабочем контуре останется (столько же? больше? меньше чем было?)
Для ответа на этот вопрос появилась “Шкала участия человека” Human Agency Scale: пятиуровневая шкала H1–H5, показывающая, сколько человеческого участия требуется при выполнении задачи совместно с ИИ-агентом.
2) Потом авторы составили «Карту желаний и возможностей» («Карту хочу-могу» Desire × Capability), чтобы оценить:
🪼где люди сами просят автоматизировать задачи, а где ИИ-агенты готовы заменить их вопреки желанию
🪼где автоматизация включит «зелёный свет», а в каких профессиях вырастет ценность человеческого участия.
Получился двумерный «ландшафт» задач, разбитый на зоны «зелёный свет», «красный свет», «R&D-возможность» и «низкий приоритет» в зависимости от того, насколько работники хотят автоматизации и насколько она технически возможна.
Ключевые «новинки» исследования
Шкала участия человека наконец-то позволила измерить единой линейкой, сколько человека должно оставаться в контуре. Это важно для практики: помогает выбирать между полной автоматизацией и ко-работой.
Карта хочу-могу предоставила разбивка задач на Зеленый цвет (хотим + можем), Красный (можем, но люди против), Надо разрабатывать R&D Opportunity (хотим, но пока не умеем) и Пока неважно Low Priority. Это даёт быстрый «радар» для инвестиций и политики занятости.
Заточенная на профессии Worker-centric оптика показала, что статистика использования (например, логи Claude.ai) плохо отражает реальный спрос: профессии с самым высоким запросом на автоматизацию составляют лишь 1,26 % текущего использования LLM-чатов.
Выявлены конкретные сигналы пересборки навыков. Проведенный анализ связывает каждую задачу с O*NET-скиллами ()база Occupational Information Network Министерства труда США) и показывает: ценность скилов типа «анализа данных» уходит вниз, а «налаживания отношений» и «координации ресурсов» — вверх. Это добавляет стратегический слой к чисто количественной оценке прироста производительности.
Почему это принципиально
✔️Про смену угла зрения сказано выше
✔️2 новые карты можно прямо вкручивать в программы рескиллинга, фильтры грантов и регуляторные «светофоры»
✔️Риск «красной зоны» - там возможна социальная турбулентность
#LLMvsHomo