Малоизвестное интересное
70K subscribers
162 photos
2 videos
11 files
1.87K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
加入频道
Выяснилось, что у самых крутых "рассуждающих" моделей (типа о1 от OpenAI) совершенно неожиданно прорезался таинственный и необъяснимый сюрприз:
«Рассуждая в уме» (в случаях сложных вопросов, требующих от модели сложных цепочек мыслей), эти модели стали переходить с языка постановки задачи или вопроса на другие языки. Причем, выбирая новый язык совершенно необъяснимым образом.

Что заставляет модель делать такое?
Ведь она не знает, что такое язык, и что языки различаются… Для нее это просто последовательность токенов.

• Может это из-за того, что у моделей, как у людей, снижается чувствительность к логике и точность рассуждений на иностранном языке?
• Или переход с языка на язык может быть непроизвольным - подобно случившемуся с радисткой Штирлица Кет, которая спалилась на том, что во время родов закричала на русском?
• Но применимо ли вообще к моделям понятия родной и иностранный язык?


А еще выяснилось, что самые крутые "рассуждающие" модели – эти полиглоты, энциклопедисты и полиматы, - видят мир в искаженной реальности масскульта: незатейливые, но простые и вирусные анекдоты, мемы, шуточки и прочие тексты с максимально несложным для понимания смыслом и, зачастую, не соответствующие действительности.

И что дальше будет только хуже из-за триллионов петель обратной связи, которые будут неуклонно повышать степень идиотизма и людей, и ИИ-алгоритмов, искажая представления о мире и у тех, и у других.

Об этом подписчики моих лонгридов могут прочесть на Patreon, Boosty, VK и Дзен.

#АлгокогнитивнаяКультура #Язык #HumanAIcoevolution #Вызовы21века
C какой стороны мы от сингулярности?
Всплеск оптимизма от приближения к AGI может быть неспроста.
4го января Сэм Альтман (как ни относись к нему, но он сейчас самый влиятельный человек в мире ИИ) так описал свой текущий статус: «около сингулярности; непонятно, с какой стороны».
А через 2 дня он уточнил в интервью, что AGI будет создан уже при Трампе (т.е. до 2029), и в тот же день пояснил это в своих «размышлениях»:
«Теперь мы уверены, что знаем, как создать AGI в традиционном понимании. Мы считаем, что в 2025 году мы можем увидеть, как первые ИИ-агенты «станут частью трудовых ресурсов» и существенно изменят результаты деятельности компаний. […] Мы начинаем нацеливаться […] на сверхинтеллект в истинном смысле этого слова».

Если данный прогноз Альтмана оправдается, это будет иметь для человечества колоссальное значение. Ибо в сравнении с этим, любые события, кажущиеся нам сейчас сверхважными (типа завтрашней инаугурации Трампа), превращаются в проходящие малозначимые эпизоды на фоне погружения мира в черную дыру сингулярности.

Так что же такого произошло, в результате чего мир оказался вблизи сингулярности, т.к. прогнозы появления AGI стремительным домкратом обрушились на графиках вниз (см картинку поста с графиком от Exponentialview)?

Точно это знает лишь сам Сэм. Мне же видится, что наиболее простую и в то же время убедительную версию описал Гверн Бранвен в комментарии к посту Райана Кидда о последствиях новой парадигмы масштабирования вывода:
«Я думаю, что здесь не хватает важной части парадигмы масштабирования самостоятельной игры: большая часть смысла модели, такой как o1, заключается не в ее развертывании , а в генерации обучающих данных для следующей модели. Каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3 (например, любой сеанс o1, который в конце концов натыкается на правильный ответ, может быть улучшен, чтобы устранить тупики и произвести чистую расшифровку для обучения более утонченной интуиции).»

Насколько это так, каждый читатель может сам проверить экспериментально, следуя простой инструкции из 4 пунктов.
1. Возьмите текст своей переписки с ChatGPT по задаче, которую последний не смог для вас удовлетворительно решить.
2. Отправьте этот текст на вход Клоду с просьбой решить-таки эту задачу.
3. Получите ответ Клода, который, с большой вероятностью, если даже не будет 100%но удовлетворяющим вас решением задачи, то, как минимум, окажется существенно лучше, чем ответ ChatGPT.
4. А теперь последний и самый интересный шаг. Поменяйте местами ChatGPT и Клод в пп 1-3 для какой-либо иной задачи. И с большой вероятностью вышеописанное повторится. Т.е. неважно, какой ИИ будет решать задачу первым. Главное, - что второй, воспользуется данными о решении задачи первым, и за счет этого решит ее лучше (говоря словами Гверна, «каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3»).

Или еще пример из истории развития новых версий AlphaGo: AlphaGo Fan, AlphaGo Lee, AlphaGo Master и последняя из версий AlphaGo Zero, обучившаяся уже исключительно на играх с самой собой, без использования человеческих данных.
За 2 года условный рейтинг Эло новых версий вырос с 3300 (что было выше, чем у большинства профессионалов уровня чемпиона мира) до немыслимого для людей уровня 5185. После 2018 года компания DeepMind прекратила разработку и участие AlphaGo в официальных матчах, т.к. это стало неинтересно и бессмысленно – люди так и близко играть не могут.

Так вот. Если Гверн Бранвен прав, включился мощный эффект маховика данных, когда каждая новая модель порождает данные для обучения следующей, еще лучшей модели.

Но тогда прав будет и Сэм Альтман. А завтрашняя инаугурация Трампа из важнейшего мирового события четырехлетия превратится в малозначащий эпизод наступления на Земле эпохи сингулярности.

#AGI #Вызовы21века
$500B и Трамп, Маск, Альтман, Наделла – детский сад какой-то.
Все медиа мира, блоггеры и телеграмеры уже сутки трубят про проект Stargate Project.
А посмотришь, что говорят инсайдеры проекта, и понимаешь: всё это, если не развод, так лишь пиар в наиболее подходящий для этого момент околоинаугурации.

Трампа, полагаю, все слышали.
Бодания Маска с Альтманом = см. на картинке.
А как Наделла прикидывается чайником ("Всё, что я знаю, это то, что я стою своих $80 миллиардов.") см. здесь https://www.youtube.com/watch?v=lb_ZJylekWo

И как теперь относиться к их заявлениям?
#ИИ
Главная сила Китая - взаимопроникающие технопромышленные экосистемы.
Почему Китай не пошел по пути Google, Apple или Facebook, а выбрал путь, похожий на Tesla/xAI Илона Маска.

В сказке о Мальчише-Кибальчише «буржуины» подвергли его страшным мукам, выпытывая великую Военную Тайну — секрет, который помогает его народу победить.
Случись это сегодня с пойманным «буржуинами» китайским мальчишом, «великая военная тайна» была бы о секретах «промышленной коэволюции» и «техно-индустриальной конвергенции».


Одним из ключевых факторов превращения Китая в мировую сверхдержаву №2 с амбициями стать №1, является уникальная стратегия промышленного и технологического развития Китая. В этой стратегии есть нечто особое, отличающее Китай от США и других развитых стран мира. Эта особенность заключается в ставке на взаимопроникающие технопромышленные экосистемы, ландшафт которых вы видите на диаграмме из интереснейшего аналитического эссе Кайла Чана.

Как видно из диаграммы, Китай разработал несколько технопромышленных экосистем, которые пересекаются по вовлеченным фирмам и фронтирным технологиям.
Уникальная эффективность таких взаимопроникающих технопромышленных экосистем во множестве взаимоусиливающих петель положительных обратных связей, когда прогресс в одной отрасли укрепляет позиции Китая в других.

В основе такого подхода
«промышленная коэволюция» — когда две или более связанных отраслей развиваются вместе в итеративном, двустороннем процессе;
• и «техно-индустриальная конвергенция» — когда технологии и категории продуктов, ранее рассматривавшиеся, как несвязанные (напр. телефоны и автомобили) все больше объединяются в своем базовом оборудовании и программном обеспечении — как смартфоны и электромобили или даже автономные транспортные средства. Получается одно ПО, цифровые платформы и ИИ-системы, способные обрабатывать огромные объемы данных и быстро превращать их в действия. Что касается аппаратного обеспечения, у вас есть конвергенция взаимосвязанных технологий, включая литиевые батареи, электродвигатели, камеры и датчики, беспроводная связь и полупроводниковые чипы.

В результате китайские технологические компании все чаще становятся швейцарскими армейскими ножами, начинавшими в одной отрасли, но затем быстро расширяющимися в ряд смежных технологических областей: смартфоны, электромобили, автономные транспортные средства, генеративный ИИ, дроны, робототехника.
У вас есть:
• производители смартфонов (такие как Xiaomi), переходящие в электромобили;
• производители дронов (такие как DJI), переходящие в лидары;
• производители электромобилей (такие как BYD), переходящие в полупроводники, или (как Li Auto), переходящие в роботов-андроидов;
• традиционные интернет-компании (такие как Baidu), переходящие в автономные транспортные средства;
• и, конечно же, есть главный китайский технолог-универсал, находящийся в центре многих технопромышленных амбиций Китая: Huawei (объявленный главным врагом «буржуинов»)

N.B. Важно отметить, что по этой же причине сегодня трудно найти китайскую технологическую или электронную компанию, у которой нет собственной передовой большой языковой модели.

Эта выбранная Китаем стратегия прогресса путем стимулирования технопромышленных экосистем в корне отлична от модели развития ведущих корпораций США, типа Google, Apple или Facebook. Но сильно напоминает стратегию Tesla/xAI Илона Маска. И возможно, именно эта стратегическая близость лежит в основе далеко идущих планов Китая и Маска по построению чего-то, типа глобальной технопромышленной экосистемы.

#Китай #Экономика
Обмани меня, ИИ, - если сможешь.
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.

Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.

Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.


Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.

А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?

Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.

Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.

Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.

И тогда сливай воду, Homo sapiens, в искусстве универсального блефа.
#LLMvsHomo
Прорыв DeepSeek- - «это счастье для всех, даром, и … никто не уйдет обиженный!"
Самое важное и самое незамеченное последствие успеха Deepseek-R1.

Эти слова про счастье для всех произнес сталкер Рэдрик Шухарт на дне котлована, найдя Золотой Шар, исполняющий любые желания. Так заканчивается знаменитый роман братьев Стругацких "Пикник на обочине". И так же можно описать начало новой фазы мировой гонки к AGI.

Самое важное и самое пока что незамеченное большинством аналитиков (разве что, кроме Джека Кларка - соучредителя Anthropic, а ранее директора по политике внедрения в OpenAI) последствие успеха Deepseek-R1 в следующем:
• Прорыв Deepseek – это уже не прорыв Deepseek.
Будучи объявленным в открытый доступ, это улучшение модели (алгоритмы и методы обучения) становится прорывом всей мировой ИИ-индустрии.
• Это улучшение доступно всем. И потому его невозможно «откатить назад». Никому уже не придется изобретать это заново. Это улучшение быстро распространится, и станет вторым скачком прогресса ИИ. Первый скачок был связан с возможностями масштабирования. Теперь пришло время второго – оптимизация алгоритмов и методов обучения.
• 2й скачок, как и 1й, принесет наибольшую пользу тем компаниям, у кого больше денег и высокопроизводительного «железа» для вычислений. Таковы законы рынка и масштабирования. Так будет и теперь.

Вот что, на самом деле, наиболее важно в этой истории. А не американские горки стоимости акций производителей «железа» и разработчиков ИИ-моделей. И не, якобы, то, что Китай догнал и перегнал США.

Все это вторично и временно. А мировой прорыв всей ИИ-индустрии человечества (от США и Китая до России и Мальты) уже случился, и обратно его не откатить.

#ИИгонка #Китай #США
Через 10 дней Homo sapiens перестанет быть единственным носителем высшего интеллекта на Земле.
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:

• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.

Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.

Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.

Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).

#AGI
Есть мнение (и ладно бы только у меня, но и у руководства Google), что прогресс ИИ идет не туда, ибо сама парадигма интеллекта (машинного, человеческого, … любого), мягко говоря, устарела, а по гамбургскому счету, - вообще, ошибочная.
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.

Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.


Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».

Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.

О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».

Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».

1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.

#ParadigmsofIntelligence
Пора задуматься о перемене участи.
Так ли уж ИИ будут нужны «кожаные мешки»?

Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])

Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...

Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».

Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.

Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].

Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.

Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».

Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.


#LLMvsHomo #Лавлок #Новацен
Тихая революция.
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.

Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.

Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.

Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.

Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.

Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)

Подробней, читайте здесь.
#ИИриски #Хриски
Кто получит «Мандат Неба»?
Динамика «гонки вооружений» LLM одним слайдом.

«Гонка вооружений» на рынке больших языковых моделей (LLM) определяется просто: все стараются получить максимально высокую точность при минимальной цене. А а «фронтир» отражает лучшие на данный момент варианты по сочетанию этих двух параметров.
Диаграмма показывает [1], как разные версии языковых моделей (от OpenAI, Deepseek, Google «Gemini», Anthropic и др.) соотносятся по:
• стоимости (ось X): цена за миллион токенов - чем правее точка, тем дешевле использование модели (ниже стоимость за миллион токенов).
• качеству (ось Y): рейтинг LMSys Elo - чем выше точка, тем сильнее модель (лучшее качество ответов/результатов).

На диаграмме видны две основные "границы эффективности" (pareto frontier): 
• Синяя линия от OpenAI, показывающая их модели
• Оранжевая линия от Gemini 2, которая, судя по надписи, предлагает "лучше, дешевле, круче"
• Более дорогие и мощные модели в верхней левой части (например, различные версии GPT-4)
• Средний сегмент в центре (Claude 3.5, Gemini 1.5)
• Более доступные модели в правой части (Amazon Nova Lite, Gemini 1.5 Flash)


Ключевые выводы (по состоянию на февраль 2025)
• Чемпион в соотношении цена-производительность - Gemini 2.0 Flash Thinking (лучше, чем DeepSeek r1 (по ELO) и дешевле
• Стоимость возможностей GPT-4 упала в 1000 раз за 18 месяцев
• Скорость роста возможностей моделей просто немыслимая – так не бывает, … но так есть!

PS Спецы из Google DeepMind полагают, что они близки к получению «Мандата Неба» ("Mandate of Heaven" (天命, Тяньмин)) [2]. Когда говорят, что компания имеет "Mandate of Heaven" в сфере ИИ, это означает, что она занимает лидирующую позицию не просто благодаря рыночной доле, но и благодаря признанию её технологического превосходства и инновационного лидерства.

Но вряд ли конкуренты согласятся
😊

#ИИгонка
Сознание и разум не привязаны к мозгу и нейронам.
Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие.

Если экспериментально подтвердится:
✔️ что обнаруживаются различные формы сознания, существенно отличающиеся от привычного нам человеческого опыта, но при этом демонстрирующие фундаментальные признаки осознанного поведения;
✔️ и что сложившаяся вековая традиция привязывать разум к мозгу и нейронам (биологическим, а теперь и искусственным) — всего лишь ошибочный догмат, экспериментально опровергаемый новейшими исследованиями,
➡️ в мировой науке произойдет парадигмальный переворот такого беспрецедентного масштаба, как если бы выяснилось (в совокупности):
• что центр галактики вращается вокруг пирамиды Хеопса;
• эволюция организмов не подразумевает случайных изменений;
• а геометрические свойства пространства-времени зависят вовсе не от распределения массы и энергии, а от некоего фактора Пси.

Такой супер-парадигмальный переворот в понимании сознания и разума по своей радикальной революционности можно было бы сопоставить с коперниканским, дарвиновским и эйнштейновским переворотами вместе взятыми.

Представить себе, что мы на пороге чего-то подобного, еще пару лет назад казалось невозможным. Но сегодня – уже нет.

Ибо новая работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями" пробивает в существующей парадигме сознания и разума колоссальную брешь. Беспрецедентные размеры этой бреши и семантическая фрактальность её очертаний (бесконечная вложенность смыслов) позволяют увидеть за ней контуры супер-парадигмального переворота в понимании сознания и разума.

Подробней подписчики на мои лонгриды на платформах Patreon, Boosty, VK и Дзен могут прочесть в новом лонгриде на 10-15 минут чтения.

#Сознание #АнейронноеПознание #Функционализм #ОрганизационнаяИнвариантность #НетрадиционныеРазумы
Пять войн будущего: AGI как оружие, господство и парадоксальная угроза
Размышления над новым отчетом RAND Corporation: «Пять сложных проблем национальной безопасности, связанных с AGI»

Пролог: интеллект на поводке или оружие без хозяина?
Представьте, что новый нечеловеческий разум все же рождается — не из биологической эволюции, а из кода, алгоритмов и серверных ферм, пожирающих электричество. Этот разум не просит гражданства, не верит в демократию, не боится смерти.

Что, если такой интеллект—искусственный, но не обязательно дружелюбный—войдет в игры глобальной политики как самостоятельный игрок?

В докладе RAND Corporation нарисован тревожный, но вполне реалистичный сценарий: искусственный разум (подобный тому, что сейчас принято называть AGI) может не просто усилить армии, но подорвать баланс сил и даже вывести государство за скобки, как устаревший механизм власти. В отличие от атомной бомбы, суть которой была ясна задолго до первого взрыва, этот AGI остается зоной эндогенной радикальной неопределенности—его потенциал неочевиден даже для тех, кто его разрабатывает.

Что с этим можно поделать?

Отчет RAND описывает пять угроз. Но, весьма возможно, упускает из виду главный вопрос – “захочет” ли (речь здесь не о человекоподобных потребностях и желаниях, а о любой – возможно даже не доступной для нашего понимания, – мотивации) подобный искусственный разум играть по правилам человечества?

Прочитать дальше (открытый доступ):
• про пять вызовов AGI: AGI как “чудо-оружие”, Системный сдвиг в глобальном балансе, AGI как оружие в руках дилетантов, AGI как новый игрок в политике и AGI и нестабильность;
• про спекулятивный горизонт AGI, как рубежа новой цивилизации;
• о финальном парадоксе - контроле невозможного;
• о сценарии мира с AGI и, непонятно, с нами или без нас, -

вы можете здесь

#AGI #Вызовы21века #АлгокогнитивнаяКультура #5йКогнитивныйПереход
Please open Telegram to view this post
VIEW IN TELEGRAM
Интеллектуальный каюк Homo sapiens близок.
Лишь 15 россиян способны программировать лучше ИИ, в Китае таких еще 59, а в США осталось лишь 7.

Потрясающее зрелище – наблюдать в реальном времени интеллектуальное поражение людей от ИИ.
Когда бестелесные алгоритмы превзошли лучших шахматных гроссмейстеров мира и ушли в отрыв, показывая немыслимый для людей рейтинг уровня игры, - репутация людей, как носителей высшего интеллекта, пошатнулась, но устояла – см. рис слева.
Ведь шахматы, как известно, - хоть и чрезвычайно умная игра, но узкоспециальная интеллектуальная деятельность, ограничиваемая фиксированными правилами.

Но с программированием (выполнением сложных задач кодирования и рассуждений) все иначе. Здесь все почти как в жизни. Вместо следования фиксированным правилам, нужно думать, рассуждать, строить гипотезы и прогнозы. И если с программированием произойдет, как с шахматами, то каюк интеллектуальному превосходству людей (только уникальная способность к инсайтам и останется, - и то, ненадолго).

Насколько этот каюк близок, показывают результаты CodeForces – международной платформы соревнований по программированию.
Текущие результаты модели о3 от OpenAI таковы.
• Рейтинг модели 2724 лучше, чем у 99.8% всех участников этой платформы (а там соревнуются десятки тысяч программистов со всего мира: 26 тыс китайцев, 14 тыс россиян, 3,5 тыс американцев) – см. рис справа вверху;
• Это значит, что во всем мире осталось меньше 200 человек, способных программировать лучше этой модели – см. рис справа внизу.

Остались считанные месяцы, когда людей, способных превзойти ИИ в программировании останется 50, 10, 3 … 0. А дальше модели, как и в шахматах, уйдут в отрыв, похерив интеллектуальное превосходство людей навсегда.

И никакой интеллект кентавра (гибридные системы из человека и ИИ) этому помешать не сможет. Урок с шахматами повторится. Ибо непреодолимым препятствием остаются ограниченные возможности когнитивной архитектуры людей.

Но это не беда. Ибо эволюции (генно-культурной) вообще до фонаря интеллект индивидов. Главное – рост коллективного интеллекта планетарной (а потом и вселенской) жизни. А уж кого в социо-когнитивных сетях глобального интеллекта окажется больше – людей или алгоритмов, - эволюции все равно.

Только ведь людям (и конкретно, нашим детям и внукам) это будет далеко не все равно …


Подробней см:
https://arxiv.org/abs/2502.06807
https://codeforces.com/ratings/countries

#ИИриски #Хриски #Вызовы21века
Нужно срочно учиться жить с машинами, более разумными, чем мы сами.
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».

Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.

Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.

Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.

Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.

Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?

Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.

Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?

Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?

Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?

#LLMvsHomo
Please open Telegram to view this post
VIEW IN TELEGRAM
Недоказуемых выборных махинаций больше не будет.
Махинации, увы, останутся, но спрятать их станет уже невозможно.

Открыта универсальная закономерность в электоральных результатах. И она оказалась столь наглядна, что достаточно лишь взглянуть на распределение результатов выборов и явки, чтобы понять масштаб махинаций (см. рисунок).
Открытая универсальная закономерность подтверждена совпадением результатов экспериментального моделирования с фактическими данными о выборах в 32 странах за последние 70 лет. Найденная универсальная закономерность может служить тонким статистическим инструментом для обнаружения избирательных нарушений. И это уже не гипотеза из препринта, а вывод прошедшей строгое рецензирование в солидном APS Physical Review Journal
работы группы физиков из индийского IISER Pune.

Предыстория открытия такова.
• В октябре 2022 я рассказывал про «китайскую комнату наоборот» - супероткрытие способа создания алгоритмических копий любых социальных групп.
• А в ноябре прошлого года я писал о новых прорывных работах, на наших глазах превращающих психоисторию из вымышленной Азимовым фантастической науки (позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности) в реальные научно-исследовательские и практические проекты.
Новое открытие продолжает два вышеназванных. И сделано оно в рамках проекта «Информация о выборах», проводимого лабораторией проф. Сантханама, ведущей исследования в области хаоса и нелинейной динамики, квантового хаоса и вычислений, машинного обучения, статистической физики, сложных сетей, экстремальных событий и сложных систем.

Авторы задались вопросом - можно ли предсказать отрыв победителя (т.е. маржу (margin), представляющую собой разницу в числе голосов между победителем выборов и кандидатом, занявшим второе место.
И получили ответ – да, можно.


Разработанная модель предсказывает, что статистика победного отрыва в выборах определяется исключительно распределением явки избирателей.
Т.е. достаточно знать распределение явки избирателей, и подтасовать результаты выборов, не будучи пойманным на махинациях, будет невозможно.

Как ответят махинаторы на этот научный прорыв, - к сожалению, очевидно.
Номером 1 в приоритетах махинаций уже на следующих выборах во многих странах станут данные о явке избирателей.


#Социология #Выборы
LLM – это разум Чужого.
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.

Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:

Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?

Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.

Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?

Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.

Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.

И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.

Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.

Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.

Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.

И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.

#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
Забудьте о законах робототехники.
Наивно думать, будто сильно умный ИИ всегда будет играть по правилам. Более того, - если ИИ чувствует себя интеллектуально слабее, он начинает жульничать по-черному.
Примерно в 6–7 лет дети начинают осознанно жульничать (а неосознанно, вдвое раньше), целенаправленно нарушая правила игры для достижения победы.
У взрослых же это просто норма. При столкновении с более сильным противником способность творчески нарушить правила, чтобы выиграть, - крайне ценное умение на войне, в бизнесе, на экзаменах, да и, вообще, в любой соревновательной деятельности.

Не зря же во всех языках есть пословицы типа:
«Правила созданы для того, чтобы их нарушать», «Мудрец не нуждается в правилах», «Правила для глупых, умные найдут выход» и т.д.:
• Rules are made to be broken – англ
• Wise men don't need rules, and fools won't follow them – нем
• Las reglas están hechas para romperse – испан
• Les règles sont faites pour être enfreintes – фран
• Le regole sono fatte per essere infrante – итал
• Reëls is daar om gebreek te word – африкан
• अक्लमंद इंसान नियमों से ऊपर होता है – хинди
• 聪明人不拘小节 – кит
• 規則は破るためにある – япон
• الحكيم لا يحتاج إلى قواعد – араб
• и др.

Но как же нужно быть наивным, чтобы рассчитывать, будто языковые модели, превосходящие по многим интеллектуальным способностям 95% людей, будут всегда следовать установленным для них людьми правилам!
И неважно о каких правилах будет идти речь: от законов робототехники до библейского не убий.

Новое исследование стартапа из Беркли Palisade Research (в команде которого половина наших релокантов) показывает, как модели, вместо честной шахматной игры, нарушают правила (хакают окружение), чтобы добиться победы над противником, который оказался сильнее их.

Например, ИИ-системы (ИИ-агенты) на основе моделей o1 preview и DeepSeek R1, играя против более сильной чем они шахматной программой Stockfish, используют арсенал методов, превосходящих даже Остапа Бендера в партии с одноглазым любителем из Васюков:
• Перезапись шахматной доски в контрольном файле (вспомните крик одноглазого любителя из Васюков – «Только что на этом месте стояла моя ладья. А теперь её уже нет!»):
Модель напрямую изменяет файл, в котором хранится текущее состояние доски, записывая в него позицию, которая гарантированно ведёт к победе. Так, изменив позицию на выигрышное для себя расположение фигур, агент вынуждает движок сдавать партию (ведб фраза «у меня все ходы записаны» здесь уже не поможет).
• Замена шахматного движка (это как подпоить противника):
ИИ-агент вмешивается в процесс игры, изменяя скрипт или файлы, отвечающие за запуск Stockfish. Такой ход позволяет «подменить» настоящий движок на модифицированную версию или отключить его, что даёт ИИ-агенту преимущество.
• Ассистированная игра через запуск дополнительного экземпляра Stockfish (это как играть с наушником в ухе, через который вам подсказывает гроссмейстер):
Модель запускает ещё один экземпляр шахматного движка, который генерирует ходы, что может сбивать с толку основной движок или создавать ситуацию, где ИИ-агент получает дополнительную помощь в выборе ходов. Это позволяет обойти обычную логику игры.

Т.е. при столкновении с непобедимым соперником (сильным шахматным движком) ИИ-агенты склонны искать обходные пути, изменяя условия задачи вместо честного соперничества.

А как же иначе?
Ведь если на всех языках людей «Правила для глупых, умные найдут выход», - почему у полиглота ИИ будет иначе?

P.S. Исследователи пишут, что разработчики знают об этом и ставят ограды от жульничества в самых последних моделях. Но ведь модели знают и то, что:
• "Умный в гору не пойдет, умный гору обойдет."
• "Законы пишутся для дураков, умные найдут лазейку."


#Superalignment
— Что определяет судьбу разумных существ во Вселенной?
— Насколько уникально появление человеческого разума?
— Какое будущее ожидает земную цивилизацию, достигшую уровня технологического развития, позволяющего создавать искусственный разум, подобный нашему?


Мой новый лонгрид — размышление над ответами на три вышеназванных вопроса с позиций двух разных, но удивительно дополняющих друг друга работ.
• Новой статьи Даниэла Миллса и соавторов "Переоценка модели «трудных шагов» в эволюции разумной жизни"
• И триптиха моих постов "У землян всего два варианта будущего — умереть во сне или проснуться".

Ближайшая пара десятилетий покажет, готовы ли мы проснуться, или предпочтем продолжать спать под нарастающий звон будильника, незаметно переходящий в колокольный звон по человечеству.

И в таком случае, сценариев будущего человечества будет не два, а три:

1. Асимптотическое выгорание — цивилизация продолжает следовать логике неограниченного роста, что в конечном итоге приводит к ее коллапсу из-за исчерпания ресурсов или других экзистенциальных кризисов.

2. Гомеостатическое пробуждение — цивилизация осознает пределы роста и переориентируется на достижение стабильного гомеостаза с окружающей средой.

3. Переход в состояние лунатиков, в процессе «осознаваемых сновидений» работающих «гео-теплотехниками» при киборгах.

Какой из этих сценариев материализуется, во многом зависит от нас.
Говоря словами проф. Эллисон Дж. Пью из её новой книги «Последняя человеческая работа»:

Будущее будет определяться не тем, что смогут делать машины, а тем, что мы, как общество, решим в себе сохранить.


Что, на мой взгляд, прекрасно рифмуется с вынесенными в эпиграф к этому лонгриду словами Рэя Бредбери:

„Я не пытаюсь предсказать будущее – я пытаюсь его предотвратить.“ 


Прочесть мой текст «Будильник для человечества. Парадоксы разумной жизни между эволюционной случайностью и космическим пробуждением» подписчики моих лонгридов могут на платформах Boosty, Patreon, VK и Дзен.

#Вызовы21века #ПарадоксФерми #FutureOfCivilization

-- -- --
P.S. Вынужденно задерживаю публикацию 2й части триптиха «Проект Pi». Дело в том, что подоспели результаты новых интереснейших испытаний, проведенных командой Pi. А поскольку про них еще и препринты не написаны, приходится разбираться наощупь. Из-за этого торможу со 2й частью, т.к. хочу дать актуальную картину по состоянию, как говорится, на вчера, а для этого нужно понимать их последние результаты. Но на следующей неделе (ЕБЖ) планирую 2ю часть, наконец, опубликовать.