Малоизвестное интересное
70K subscribers
166 photos
2 videos
11 files
1.88K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
加入频道
Объявлен 3й парадигмальный переход в науке: от математики к биоматематике – первобытному языку мозга.
«Говоря о математике, мы, вероятно, имеем в виду вторичный язык, возникший над первобытным, который использует только нервная система.»

Джон фон Нейман
• 1й научной парадигмой была ньютоновская парадигма – механистическая «Вселенная, как часовой механизм».
• 2я пришла с квантовой механикой и ее вероятностной природой.
• Теперь биология заставляет нас выйти за рамки обеих в новую эпистемологическую парадигму – биоматематику, которая способна объять творческую свободу жизни.

Биологические системы принципиально сопротивляются математической формализации. В отличие от физики, биология предстает как царство исключений и контекстуальных зависимостей. Знак равенства – символ математической определенности – оказывается неуместным в территории живого.
Почему так? И можно ли это преодолеть?

В 1931 году Курт Гёдель доказал, что математика не может объяснить математику. Новая работа трёх знаменитостей Си Гарте, Пэрри Маршал и Стюарт Кауффман «Разумная неэффективность математики в биологических науках» распространяет этот принцип на биологию и объявляет, что
"мы стоим на пороге "третьего великого перехода в истории науки – после ньютоновской и квантовой революций… Это новое научное мировоззрение, признающее творческую непредсказуемость жизни"

.

Суть 3-й революции в следующем:
1. Признание принципиальной неформализуемости биологии в математических терминах. Это фундаментальный эпистемологический сдвиг: живые системы не просто следуют математике, они создают математику. Организмы непрерывно выбирают из множества возможностей, проявляя агентность и когнитивные способности, которыми неживая материя не обладает.
2. Основываясь на теоретических работах Гёделя и Тьюринга, авторы, взамен существующей математики, изобретают новый вид недедуктивного формализма, подходящего для описания биологической реальности – биоматематику (не путать с существующей математической биологией)
3. Делается философское заключение о третьем великом переходе в истории науки и экзистенциальном вызове человечеству.
"Неэффективность математики в биологии представляет собой развилку на дороге в истории науки. Мы находимся на пороге «третьего перехода», где ньютоновская парадигма часового механизма, которая была опрокинута квантовой механикой, снова трансформируется непокорным творчеством жизни."


Биоматематика представляет собой тот самый первичный, базовый, «первобытный язык», который, по представлениям великого Джона фон Неймана, использует только нервная система, а математика – это всего лишь надстройка над ним. Фон Нейман считал, что
«если мы расшифруем его, то начнем понимать, как устроен мозг, получим доступ к уникальной способности разума присваивать великое всеобъемлющее значение миру, которая доступна только человеку».


В качестве формального языка биоматематика оперирует не равенствами, а возможностями, не предсказаниями, а потенциалами. Здесь неопределенность становится не проблемой, а основным операционным принципом. И согласно этому новому формализму, эволюция – не просто случайный процесс отбора, а непрерывный творческий акт, в котором каждый организм активно участвует.

Телеграфно говоря, в биоматематике используются:
1. неравенства вместо равенств;
2. биологический вероятностный подход;
3. функциональные зависимости без точных определений;
4. новое понимание биологической причинности: в направлении "познание → коды → химические вещества", а не наоборот, как в стандартной редукционистской модели.

Также биоматематика кардинально меняет понимания сознания – не как эпифеномен сложности, а фундаментальное измерение реальности, где выбор, агентность и творчество преобладают над детерминистической причинностью.

Все это начинает 3й переход:
• в науках о жизни, расширяя «конституцию биоматематики» конкретными законами;
• а в науках о разуме и сознании, увязывая новые законы с «
теорией относительности интеллекта»

#Биоматематика
Эволюции будут нужны лишь суперпрофессионалы и гении.
Люди средних способностей уже проигрывают ИИ почти во всем.

Месяц назад я писал «Пора задуматься о перемене участи. Так ли уж ИИ будут нужны «кожаные мешки»?» Поводом было исследование, показавшее, что в 6 медицинских практиках «ИИ без врача» лучше врача-человека, работающего вместе с ИИ.
Что скрывать. Даже после начала революции ChatGPT сохранялась надежда, что медицина не шахматы, и всеведущая, но тупая машина врачей не превзойдет. Но оказалось, что еще как превзойдет.
А спустя месяц, вслед за интеллектуальным превосходством врачей, обрушилось интеллектуальное превосходство юмористов. Оказалось, что и шутить ИИ может получше людей.

Что LLM способны неплохо шутить, стало ясно уже после выхода ChatGPT 3.5. Но все же до чувства юмора людей этой модели было далеко.

Новейшее исследование модели GPT-4o поставило людей на заслуженное нами место – юмор рядового человека менее смешон и оригинален, чем юмор GPT-4o.

Проверяли со всей научной тщательностью и дотошностью на задаче генерации мемов - специфичной для конкретной культуры форме творческого самовыражения, основанной на юморе.

Мемы генерировали люди, GPT-4o и совместно люди + GPT-4o.
Каждый сгенерированный мем краудсорсеры оценивали по трем характеристикам: насколько он смешной, креативный и виральный.

Итог таков:
1. Мемы модели, в среднеи, оказались лучше мемов людей
2. При совместной работе (люди + GPT-4o) мемы генерились быстрее и с меньшими трудозатратами людей, но результат получался хуже, чем у GPT-4o.
3. Но все сказанное в пп 1 и 2 – это в среднем. Самые смешные мемы получались-таки у людей. Т.е. ИИ может повышать производительность и создавать контент, нравящийся широкой аудитории. Но для генерации контента высшего уровня нужны люди.

Главный итог исследования подтвердил закономерность.

✔️ ИИ сильнее людей средних способностей практически во всем: от рекламы до стихов и от диагностики до юмора;
✔️ Но суперпрофессионалы и гении практически во всем сильнее ИИ (кроме задач с фиксированными правилами: шахматы, Го …)

Отсюда напрашивается вопрос:
Зачем культурной коэволюции двух носителей высшего интеллекта (людей и ИИ) люди средних способностей?

Один вариант ответа – чтобы работать «гео-теплотехниками» при киборгах.
А еще варианты есть? Не понятно.

Ну и чтоб не заканчивать на пессимистической ноте, вот пример анекдота с элементом черного юмора про программиста на необитаемом острове, который был мгновенно придуман по моей просьбе моделью Claude 3.7 Sonnet.
По-моему, совсем неплохо 😊

Программист потерпел кораблекрушение и оказался на необитаемом острове. После месяца выживания он нашёл древнюю лампу с джинном.

Джинн говорит: "Дам тебе на этом острове все что попросишь, но твое желание должно быть сформулировано в виде компьютерного кода."

Программист пишет на песке: "while(true){island.resources = infinity;}"

Джинн щёлкнул пальцами, и программист мгновенно умер.

В логе ошибки было написано: "Обнаружен бесконечный цикл. Процесс аварийно остановлен."


#LLMvsHomo #FutureOfCivilization
«Эти почти живые системы обладают собственным разумом.
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».

Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.

Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.

Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни

Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
«что не сказал тогда всё что думал», и поэтому решил «сегодня честно сказать, что, на мой взгляд, происходит».


А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.

Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.

В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.

Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.

Вот примеры таких проблем.

Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.

В силу вышеуказанного:

• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии


Иными словами, можно ожидать, что стремление к независимости станет прямым следствием разработки ИИ-систем для выполнения широкого спектра сложных когнитивных задач. 


Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».

Но с ИИ-системами это так.

Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.

И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.

Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».

Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.

#ИИриски #Хриски
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Представление об ИИ-моделях как исключительно об интеллектуальных агентах в корне неверно.
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.

Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.

✔️ Объединяющая мысль трёх авторов в том, что большие модели — это не столько нарождающийся агентный сверхразум, сколько невиданная по мощности и преобразующей силе в истории земных цивилизаций культурная и социальная технология.
✔️ А наиболее важные вопросы, которые стоит задавать сегодня в свете взрывоподобного ускорения прогресса ИИ, касаются конкретных человеческих контекстов и влияния алгоритмов на индивидов и социумы, а не абстрактных спекуляций о воображаемых будущих рисках.


Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.

Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.

Статья без пэйвола и в pdf
Большие ИИ-батальоны – новая стратегия Китая в борьбе с США.
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.

Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.

Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.

Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."

Таким образом, по состоянию на март 2025:
OpenAI ежесуточно обрабатывает около 1 трлн токенов, используя вычислительную мощность ~2000–4000 петафлопс
• Baidu также ежесуточно обрабатывает около 1 трлн токенов, но использует лишь 1500–2300 петафлопс


Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
Яндекс (YaLM) ежесуточно обрабатывает около ~5 млрд токенов, используя вычислительную мощность ~1-3 петафлопс
• Сбер (GigaChat) ~5+ млрд токенов, используя ~1-5 петафлопс


N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.

Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.

#Китай #США #ИИгонка
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.

Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.

В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.

Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.

И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.

Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.

Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.

Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).

#ГенИИ #LLMvsHomo #ИнойИнтеллект
Не того боимся
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)

В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)

Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.

В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума

Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.


Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.

#ParadigmsofIntelligence
Россия отстает в микросхемах для ИИ от Китая – в 13 раз, а от Запада – в 33 раза.
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.

Так что по гамбургскому счету, как и сказано выше:
В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
У Китая же будет свое массовое производство микрочипов 5 нм
А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)

Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.

#ИИ #Китай #США
Информарий проекта Pi
8 лет назад, начиная этот канал, я обещал читателям «открыть окно в будущее», создав для них своего рода машину времени, чтобы улетать на 5 - 20 лет вперед.
Первое же предложенное читателям путешествие было в будущее ИИ. И я тогда писал, что «через 5-10 лет ИИ станет совсем иным, чем это представляется в 2017».
Спустя 8 лет и публикаций мною 1000+ постов на тему ИИ, легко проверить, насколько я был прав, в чем не совсем и в чем ошибался (если найдете такое)).

В том же посте (в его полном тексте на Medium) я обещал читателям со временем поделиться техно-лайфхаками изготовления машины времени под собственные интересы и информационные нужды.

Признаюсь, что с выполнением этого обещания я несколько затянул.
В основном, по причине запаздывания революции генеративного ИИ. И хотя уже в 2019-2020 было видно, что «великий техно-перелом в ИИ» вот-вот может наступить, тогда же стало ясно, что индустрия ИИ в целом пошла куда-то не туда (о чем в 2019 заявил на NeurIPS Блез Агуэра-и-Аркас, подбивая Google пойти другим путем - «путем выдры»).
А в августе 2021 появление базисных моделей запустило революцию в обучении машин, последствия которой тогда были мало кому представимы.
• Уже в 2022 люди начали «потихоньку превращаться в новый вид», и на Земле «появилась новая глобальная квазирелигия ИИ»
• В 2023 супертитулованный Станислас Деан призвал человечество задуматься - «Не время быть идиотами, ИИ может победить людей».
• Потом стало проясняться, что начался 5й когнитивный фазовый переход, обещающий изменения тектонических масштабов, - «это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета». И всё это потому, что «начался турбонаддув интеллекта Homo sapiens».
• Но затем произошло «Фиаско 2023», после чего «люди и нежить стали неразличимы», а вся индустрия ИИ попала в «ловушку Гудхарта».
• Однако, в 2024 ситуация с перспективами ИИ стала выправляться: были сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
• Наконец, в начале 2025 появилась вселяющая надежды информация о новой парадигме интеллекта - «проекте Pi» от Google.

И вот теперь-то настало время вернуться к обещанию поделиться техно-лайфхаками постройки индивидуальной машины времени.

1й шаг в этом деле, как я писал еще в 2017, – создание собственного информария с помощью ИИ.

Модели ИИ мне здорово помогают в быстром и дотошном мониторинге инфосферы и в глубоком, но при этом молниеносном, анализе выловленного малоизвестного – интересного.
Но хотелось бы помочь и подписчикам в плане привлечения ИИ для более эффективного и быстрого извлечения ими максимума пользы из моих текстов, с учетом их индивидуальных вкусов и интересов.

Первые шаги в этом направлении очевидны.
Создание с помощью инструментария генеративного ИИ:
1. ревью, обсуждений и Q&A’ев по конкретным лонгридам и тематическим сериям;
2. аудиофайлов, как самих лонгридов, так и названного в п.1;
3. майндмапов, тэгов, индексов и глоссариев по конкретным лонгридам и тематическим сериям;
4. а также интерактивных опросно-аналитических ИИ-систем для самостоятельного глубокого бурения материалов по интересующим темам.
Не все это появится мгновенно. Но и особо долго ждать, надеюсь, не придется.

Итак, начнем эксперимент.

Первоначальная схема пока ориентирована на подписчиков 2х высших уровней.
A. Уровень «Золотой» получит через закрытый дискуссионный чат канала доступ к части материалов из моего информария по теме «проект Pi».
B. Уровень «Алмазный» получит интерактивный доступ ко всему информарию. Это позволит каждому подписчику в диалоге на троих (с ИИ и со мною) анализировать и обсуждать собранные там источники, генерировать и проверять гипотезы и т.д.

Подробности этого подписчики высших уровней получат на тех платформах, где они подписаны.

И в завершение 3 примера того, как ИИ толково переварил все три лонгрида звучанием 2+ часа (только 3й – это 45 мин) в 6-минутное серьезное резюме и в 4-минутный игриво-диалоговый подкаст.

Но это цветочки. А ягодки - в информарии 😊.

#ParadigmsofIntelligence
Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".

Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.

В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.

А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".

Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.

Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.

Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.

#СтратегическаяАналитика #ИИ #Китай #США
Unknown
Sergey Karelov
Подкаст о прогностическом исследовании "Искусственный интеллект 2027"
«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».

В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».

О как я ошибался. Потребовалось менее года.

В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.

Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»

По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.

Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.

Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.

Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.

#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны