Малоизвестное интересное
68.5K subscribers
127 photos
2 videos
11 files
1.84K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
加入频道
Найдена формула вычисления человеческого капитала. Из неё следует, что стартапам нужны лисы, а не ежи!
Анализ больших данных о сложных сетевых системах приносит фантастические прорывные результаты во всё новых и новых областях.
Например, нынче почти все убеждены, что генетический код – лучший предиктор показателей здоровья. А на деле, наблюдаемый при тотальной урбанизации рост плотности, разнообразия, эпидемической связанности и неравенства населения привел к тому, что сегодня почтовые индексы людей являются лучшим показателем здоровья, чем их генетический код (см. рис. http://bit.ly/2BEgAOP).
Еще пример совсем из другой области – как проводить оптимальные географические границы регионов. Оказывается, лучшим предиктором оптимального расположения границ является функциональная сеть транспортных потоков по пригородным маршрутам. (см. рис. http://bit.ly/2Tbm7DQ) .

А что, если проанализировать на национальном уровне большие данные о развитии всех предприятий за 10+ лет в увязке с показателями человеческого капитала персонала каждой из компаний.
Это и было сделано в капитальном бразильском исследовании, сенсационные данные которого только что опубликованы.

Об этом мой новый пост на 5 мин.
- на Medium http://bit.ly/2Rbqi59
- на Яндекс Дзен http://bit.ly/2BCTh84
#ЧеловеческийКапитал
Если обобщить десятки уже опубликованных итогов года и прогнозов на следующий по широкому спектру тем (от технологий и экономики до социальной и политической жизни), интегральный прогноз получается такой.

• Волатильность и неопределенность растут во всех странах, отраслях и рынках, равно как и в большинстве аспектов жизни человечества.
• В следующем году этот процесс продолжится с ускорением.

Почему это происходит?
Разные эксперты из разных областей дают широкий спектр различных ответов на этот вопрос.

Мне среди них ближе всего версия Нассима Талеба.
Причина в росте эпистемической неопределенности и эмерджентности вследствие техно-социального усложнения мира.

Попробую развернуть эту мысль Талеба, воспользовавшись его же аргументацией, как я её понимаю.

Продолжить чтение на 7 мин:
- на Medium http://bit.ly/2EQRsb1
- на Яндекс Дзен http://bit.ly/2RgsmIT
#ЧерныйЛебедь #Неопределенность #Эмерджентность #Прогнозирование
​​Предновогодний сюрприз - Microsoft раскрывает секрет самого умного ИИ мира.
Секрет в том, что реальный ИИ - это гибридный ИИ.

Система Microsoft XiaoIce – это самый популярный в мире социальный чат. Его уникальность в том, что он выполняет роль интеллектуального собеседника с эмоциональной связью, тем самым удовлетворяя потребность людей в общении, привязанности и социальной принадлежности.
Стандартный тест Тьюринга, как вы помните, в том, чтобы было трудно (или даже невозможно) отличить при общении с кем говоришь: с человеком или машиной.
Microsoft пошел дальше на основе расширенного теста Тьюринга – чтобы с машиной людям хотелось говорить больше, чем с другими людьми.

При проектировании XiaoIce принимался во внимание как интеллектуальный коэффициент (IQ), так и эмоциональный коэффициент (EQ), а также формируемые черты характера. Т.е. формула XiaoIce = IQ + EQ + Personality.
В результате социальный чат человек-машина:
1) превратился в систему иерархического принятия решений, математически описываемых марковским процессам - Markov Decision Processes;
2) оптимизирует долгосрочное вовлечение людей в общение (измеряемое в ожидаемом количестве обращений за сеанс – CPS – сколько раз человек захочет продолжить разговор с машиной после её ответа).

Одна из главных фишек XiaoIce - модуль эмпатических вычислений.
Microsoft впервые раскрыл секрет, как XiaoIce динамически распознает человеческие чувства и состояния, понимает намерения человека и реагирует на динамику его потребностей в ходе долгих разговоров.
С момента выпуска в 2014 году система XiaoIce общалась уже с более чем 660 миллионами людей и преуспела в установлении долгосрочных отношений со многими из них. Средний CPS XiaoIce, равен 23, что значительно выше, чем у других чат-ботов и даже человеческих разговоров.
Проверьте это на себе - сколько раз вы в среднем возвращаетесь к разговору с френдом в социальной сети (комментируете сказанное им или снова высказываетесь сами)?
Боюсь, что среднего показателя в 23 раза добьются единицы из нас!

Что значит XiaoIce уже превзошел среднего человека в искусстве общения. Общаться с ним людям более интересно, чем с другими людьми.
Это реальная сенсация. Поскольку практически означает, что в ближайшие год-два ИИ превзойдет ВСЕХ людей по привлекательности общения (включая супругов и любовников, а также родителей и детей)
А это для миллиардов пользователей сети будет куда круче и практически нужнее, чем абсолютное превосходство в шахматах и Го.

Как устроен этот гибридный ИИ, вы можете теперь узнать из только что опубликованной статьи Microsoft. А как выглядит его высокоуровневая архитектура, показано на рисунке.
Хороший новогодний подарок для тех, кто понимает 😃 👍

#ГибридныйИИ
С наступающим 2019! Пусть он будет для читателей канала Годом Умной Свиньи!
Ведь свинья умна, эмоциональна, обладает индивидуальностью и по многим когнитивным параметрам находится на уровне собак, шимпанзе, слонов, дельфинов и даже людей. Свиньи обладают превосходной памятью, проявляют эмпатию, способны к творчеству, понимают язык символов и умеют распознавать сложные комбинации действий. Подробней http://bit.ly/2LCeSC7
Не планировал я вас отвлекать в суете новогодних каникул, но не получилось. Поскольку без этого вы, скорее всего, пропустите, не просто очередное «малоизвестное интересное», а весьма важное и, по отзывам, «самое блистательное и впечатляющее, радикальное и революционное, туманное и поэтичное» эссе Джоржа Дайсона «Конец детства», написанное и опубликованное им в 1й день 2019.
Об этом мой новый пост:
- на Medium http://bit.ly/2SzVJDB
- на Яндекс Дзен http://bit.ly/2F9sgws
#ЦифроваяРеволюция #Компьютинг
Всем (и особенно тем, кому мой вчерашний пост и эссе Дайсона не понравились и показались надуманными, а "аналоговая метафора" вызвала недоумение, а то и раздражение) весьма рекомендую взглянуть на это обсуждение данной темы
https://news.ycombinator.com/item?id=18810181

Вот перевод лишь шести толковых цитат из этого обсуждения (но там есть и другие)
1) "Я думаю, что в этой статье есть невероятно важный момент, который пропускают большинство людей, потому что эссе ужасно написано.
Часть проблемы в том, что аналоговый против цифрового не правильный термин. Вакуумные трубки совершенно не имеют отношения к тому, что автор пытается сказать, и это сбивают с толку читателя."
2) "«Аналоговая» метафора здесь заключается в том, что пользователь не является потребителем тщательно спроектированной системы, но он является одним «электроном» в цепи, которая несет в себе много пользователей, и общее поведение системы зависит от того, что они и миллионы других пользователей делают, как они взаимодействуют друг с другом."
3) "Интересная идея, которую я прочитал здесь, состоит в том, что системы, которые изначально предназначались для измерения реального мира, такие как карта трафика или социальная сеть, стали настолько влиятельными, что оказали значительное влияние на то, что они измеряют"
4) "Возможный взгляд на это - инверсия контроля между возникающим поведением и запрограммированным поведением. Когда число взаимодействий между дискретными единицами запрограммированного поведения превышает определенный порог, запрограммированная логика реагирует на возникающие взаимодействия, а не диктует их. Система в целом начинает подчиняться собственной логике, а не запрограммированной в нее."
5) "То, как модели незаметно подменили собой реальности, - очень и очень верно. Это совершенно очевидно, когда вы ищите знания, которых нет в общепринятых стандартных местах в Интернете, или действительно пытаетесь использовать Google в качестве поисковой системы, а не просто удобной замены закладок"
6) "Это похоже на рекурсивную версию закона Гудхарта - Goodheart's Law"
По просьбам читателей, что хотели бы лучше понять эссе Дайсона, но затрудняются пробиться сквозь смыслы не самого простого английского –
✔️ профессионально выполненный коллегой EVAN_GCRM синтез:
- чуть сокращенного и хорошо структурированного перевода эссе Дайсона (что делает его куда лучше читаемым, чем оригинал);
- моего поста об эссе с дополнением;
- хороших иллюстраций в тему (кому-то вполне достаточно будет посмотреть только их 😃)
https://evan-gcrm.livejournal.com/1392888.html
#ЦифроваяРеволюция #Компьютинг
Ровно два года назад в 1ом посте серии «Большой войны не миновать» я рассказал, как в ходе Нобелевского симпозиума Нассим Талеб опроверг теорию Стивена Пинкера о будто бы уже начавшейся эпохе «долгого мира» с неуклонным падением уровня насилия, снижением кровопролитности и числа войн. Нассим Талеб математически обосновал совершенно противоположный и страшный вывод.

Большой войны с десятками миллионов жертв человечеству не миновать.

Год назад я опубликовал 2й пост этой серии, названный «Большая война ближе, чем мы думаем». В нем было рассказано о результатах исследования Аарона Клаузета, подтвердившего правоту Талеба и доказавшего следующее.

Мы живем в циклической реальности, в которой на смену всё более «долгого мира» идут всё более кровопролитные войны.

И вот только что опубликовано исследование Уго Барди с коллегами, доводящее счет в легендарном споре Талеба и Пинкера о судьбе человечества до разгромных 3:0. Результаты интеллектуального анализа данных самой большой в мире базы о жертвах войн за 600 лет еще раз (и похоже, окончательно) развенчали идеи «долгого мира» и «снижения уровня насилия», отстаиваемые Стивеном Пинкером, и поддерживаемые многими другими известными интеллектуалами.

Вердикт нового исследования ужасен.

В недалеком будущем мир ждет война ещё более кровопролитная, чем 2я Мировая.
Но это не всё.

Еще более поражает интегральный результат трех работ — Талеба, Клаузета и Барди,— переводящий наши представления о войне из области качественных гуманитарных оценок и категорий в естественнонаучную область математически формулируемых гипотез и их экспериментальной проверки на моделях, позволяющих количественную оценку их точности.

Война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.

Что это? Почему так? Причем здесь энтропия? И что из всего этого следует, — обо всем этом желающие могут прочесть в 3ей, завершающей статье серии «Большой войны не миновать».
На Medium http://bit.ly/2TyLaAH или https://goo.gl/S9nT3A
На Яндекс Дзен http://bit.ly/2RyfdLH или https://goo.gl/jb4Qv7

#БольшаяВойна #SOC #Энтропия
Подзарядитесь оптимизмом и желанием действовать в 2019.
100 хороших новостей, о которых мало кто слышал в 2018 году. А зря!
Ценность позитивных новостей не только в уменьшении тревоги и депрессии, нагнетаемых большинством публикаций СМИ, но и в сокращении фатализма, цинизма и радикализма, всё более охватывающих мир.
Вот 3 новости из 100, взятые просто навскидку:
• Индия объявила, что к 2022 году страна ликвидирует все одноразовые пластиковые изделия (FYI: уже три года, как Индия сделала обязательным использование пластиковых отходов в дорожном строительстве, и сейчас в стране насчитывается уже 100 000+ км. пластиковых дорог).
• Благодаря изменяющимся вкусам людей, родившихся после 1980 года, уже 70% населения мира сокращают потребление или вообще отказываются от мяса (а мы говорим, что у нас плохая молодежь!)
• Ирландия стала первой в мире страной, отказавшейся от ископаемого топлива (ведь можно же!)

Понизьте уровень своей тревоги (ведь как ни хорохорься, а она есть). Да и лишний цинизм вам незачем.
Просто полистайте оставшиеся 97 новостей, чтобы почувствовать:
- мир не развалился в 2018;
- а в 2019 нужно почаще читать новости из правильных источников.
https://goo.gl/rusmh3
А здесь сокращенно, но зато по-русски https://newsvo.ru/blogovo/118034

P.S. А еще не пожалейте 20 мин. на классную видео-презентацию – послание миру от авторов «100 хороших новостей» команды FUTURE CRUNCH, - о которой не самые глупые люди отзываются так:

«Лучшая презентация о состоянии мира, которую я видел за последние годы»

«Удивительная способность взглянуть на глобальные вызовы в перспективе и создать ощущение обоснованной надежды»

«Их послание о науке, необходимости критического мышления и оптимизма, которого мы должны придерживаться, уникально»

https://www.youtube.com/watch?v=VMQLbcwOj2w

#ХорошиеНовости
Человек создан по образу и подобию Божьему… А Искусственный Интеллект?
Новый прорывной метод сделать ИИ подобным людям.
Возможность рассуждать и выбирать – это не только то, что делает человека подобным Богу, но и то, что кардинально отличает человека от ИИ.
Ведь как работает современный ИИ на основе глубокого обучения?
Умеющему учиться (например, переводу) на основе обрабатываемых им данных алгоритму (он же – ИИ), дают на вход миллионы примеров, скажем, использования слова bank и для каждого из них фиксируют, что это слово означает в конкретном контексте («банк», «берег» и т.д.) Обучающийся алгоритм просто обрабатывает огромное количество данных. Никто не указывает, какие правила он должен использовать. Алгоритм должен сам найти контекстные ассоциации, позволяющие предсказывать конкретное значение слова для каждого из переводимых текстов. И чем больше данных загружается, тем точнее его предсказания, а значит и перевод.
Такой подход профессор MIT и Чикагского универа Муллайнатан называет «индуктивным научным методом» (от слова «индукция»). Взамен проверки конкретной гипотезы о значимости определенного фактора проверяются все возможные факторы.
Однако, такой метод эффективен далеко не всегда.
Когда самообучающийся алгоритм сам определяет все факторы, наибольшим образом влияющие на интересующий нас результат, – он может быть эффективным лишь, если получаемые результаты трактуются НЕ как причинно-следственные связи между исследуемыми факторами, а как некоторую из интерпретаций причинно-следственных связей.
При невыполнении этого условия легко впасть в заблуждение, а то и хуже, – в мистику и шаманство.

И тут мы сталкиваемся с одной из самых фундаментальных проблем в науке – нахождение и расшифровка причинно-следственных связей в больших массивах данных.

Современные подходы к выявлению причинно-следственных связей при машинном обучении основаны на тестах линейной и нелинейной регрессии и корреляции.
Эти подходы, мягко говоря, плохо справляются с иерархически структурированными данными и индуктивным выводом.
Из этого следуют 2 страшно неприятных результата, не позволяющих ИИ хоть как-то приблизиться к подобию людей. Современный ИИ не способен, подобно людям:
А) рассуждать (выносить суждения на основе выявленных путем индуктивного метода причинно-следственных связей).
Б) решать новые проблемы на основе опыта решения иного рода проблем (иными словами, ИИ должен запускаться с нуля каждый раз для каждой новой проблемы).

Новый прорывной метод, если не устранения, то эффективного обхода названных выше двух принципиальных ограничений современного ИИ предложен в работе с несильно понятным для непрофессионала названием «Казуальная деконволюция алгоритмических генеративных моделей». Замена «казуальной деконволюции» на «причинную обратную свертку» мало кому поможет понять, о чем речь.

Посему попытаюсь сказать, если не проще, то хоть конкретней.
Авторы придумали объединить:
- технику анализа возмущений, предложенную Джуда Пёрлом в его структурной модели причинности,
- и аппарат алгоритмической вероятности, предложенный в рамках Алгоритмической теории информации Колмогоровым и Соломоновым.

Свою идею авторы опробовали на сверточных нейронных сетях - одном из наиболее многообещающих подходов к классификации изображений в машинном обучении, в котором набор примитивных признаков извлекается из распределения изображений.
В результате им удалось построить алгоритмическую объяснительную генеративную модель, основанную на более глубоком понимании причинного механизма, чем это возможно посредством нелинейной регрессии.
Статья в Nature https://goo.gl/WLKovW
#ИИ
В основе мира простые паттерны.
Два новых открытия позволяют увидеть мир иначе, чем представлялось.

✔️ Мы привыкли думать, что в основе затейливой сложности мира какие-то замысловатые процессы и мудреные законы.
✔️ Всё новые открытия свидетельствуют об обратном: мир устроен на основе чрезвычайно простых паттернов, организованных по совсем простым принципам.
Выявить эти закономерности можно из практически любых массивов данных, анализировать которые раньше просто не приходило в голову.
Каким образом это теперь приходит в головы исследователей, остается загадкой, про которую можно лишь сказать эпиграфом из Гоголя к повести Стругацких «Понедельник начинается в субботу».
«Но что страннее, что непонятнее всего, это то, как авторы могут брать подобные сюжеты, признаюсь, это уж совсем непостижимо, это точно... нет, нет, совсем не понимаю. Н.В. Гоголь»

Вот эти 2 открытия.
1) Биологические закономерности, определяющие формирование рисунка перьев у цыплят, развитие волос млекопитающих, структуру зубообразных выступов на коже акул и др., - описываются простыми паттернами математической модели, придуманной Аланом Тьюрингом, придумавшим «мать всех компьютеров» - машину Тьюринга и приблизившего окончание Второй мировой войны, взломав немецкий секретный код Enigma (см. прекрасный фильм «Игра в имитацию»).
Модель Тьюринга, называемая модель реакции-диффузии, очень проста. Для неё требуются только два взаимодействующих вещества, активатор и ингибитор, которые диффундируют через ткань, подобно чернилам, уроненным в воду. Активатор инициирует некоторый процесс, такой как формирование пятна, и способствует воспроизводству самого себя. Ингибитор останавливает этот процесс. Важно отметить, что ингибитор распространяется через ткани быстрее, чем активатор. Это более быстрое распространение ингибитора предотвращает переполнение очагов активации. В зависимости от того, когда и где высвобождаются активатор и ингибитор, области активации будут располагаться в виде равномерно расположенных точек, полос или других рисунков. В результате получаются регулярные паттерны роста перьев, чешую или даже зубов.
Подробней:
• популярно http://nautil.us/issue/68/context/how-alan-turing-deciphered-shark-skin
• научная статья http://d3a5ak6v9sb99l.cloudfront.net/content/4/11/eaau5484/tab-pdf
• также рекомендую 4х минутный ролик про Реакцию диффузии — завораживающее зрелище под гипнотизирующую музыку https://www.youtube.com/watch?v=PtPK_xx5Hks

2) Пунктуация любого литературного текста описывается простыми паттернами, по которым, как по отпечаткам пальцев, можно определить автора текста и его жанр.
- То, что по результатам анализа текста можно определить его автора, сегодня мало кого удивишь.
- То, что можно выкинуть все слова, оставив лишь знаки препинания, и по их последовательности и частоте можно также определить автора, звучит бредово, но это факт.
Вот на картинке показаны хитмапы анализа пунктуации трех разных авторов, по которым их можно вычислить, не прочтя ни одного слова в их текстах – только по пунктуации. https://pbs.twimg.com/media/DwE5dN8WkAYzTMl.jpg

Подробней:
• популярная статья еще только пишется
• научная статья https://osf.io/preprints/socarxiv/2rzsg

#Паттернинг #ЭволюционнаяБиология #ВычислительнаяЛингвистика
Скандал лучше незамеченного зла.
Страшная сила великой безответственности.

Прочтя за праздники больше сотни разнообразных материалов с анализом итогов 2018 и прогнозами на 2019 в области ИИ, я попытался как-то отжать из них общий сухой остаток для своих читателей.
Заголовок поста – это то, что получилось.
• 1е предложение – взгляд оптимистов
• 2е – пессимистов.
Для иллюстрации взглядов оптимистов я использую итоговый отчет по ИИ за 2018 издания The Verge.
В роли пессимистов, как и положено по названию, - у меня выступит редакция The Guardian со своим прогнозом ИИ «Мир в 2019».

The Verge
https://goo.gl/p1dRtB
2018 ознаменовался парадом негативных заголовков о скандальных результатах и перспективах ИИ проектов.
- первые смертельные жертвы самоуправляемых авто;
- фирма Кембридж Аналитикс оскандалилась в попытках влияния на общественное мнение;
- компанию Facebook обвинили, что она способствовала геноциду в Мьянме;
- а компанию Google - в том, что помогала Пентагону обучать военные беспилотники;
- все технологические ассоциации, не сговариваясь, бьют в набат об огромном риске непроработанности этических вопросов ИИ.
Эти и многие другие примеры сподвигли исследовательскую группу AI Now охарактеризовать 2018, как год «каскадных скандалов» в области ИИ. И это точное, хотя и удручающее, определение.

В то же время, The Verge считает, что лучше уж публичные скандалы, чем заметание сора под ковёр. И если открыто клеймить все скандалы и обличать жадность и дурь тех, кто пытается использовать ИИ для своих низких целей или просто из-за суетливого желания застолбить за собой поляну с помощью недостаточно проработанных решений с непродуманными последствиями, - есть шанс, что всё понемногу образуется.
А другими словами, - ИИ может и сгубит мир, но не сразу, а мы еще успеем как следует помучиться. Вот такой оптимизм получился.

Теперь про анализ The Guardian.
https://goo.gl/j9J2tt
1) 2018 показал, что уровень ИИ технологий и человеческой глупости растут неимоверно быстро. И в 2019 нужно более всего опасаться слияния этих двух трендов.
2) Правительства, похоже, для себя вопрос с ИИ решили. Прагматический Китай не стесняясь заявил, что будет максимально использовать ИИ для «прогнозирования траекторий развития интернет-инцидентов ... превентивного вмешательства и управления общественным мнением для предотвращения массовых вспышек общественного мнения в Интернете и улучшения возможностей социального управления». Скромные правительства Запада вслух такого пока не говорят, но с интересом смотрят, что у Китая получится, чтобы сделать работу над ошибками.
3) В 2018 произошел концептуальный прорыв Google DeepMind в создании AlphaZero - самообучаемого класса программ, способных без участия человека в течение всего нескольких дней достигать сверхчеловеческого уровня в любой игре с «идеальной информацией», где все факты игры известны всем игрокам. Этот прорыв ставит крест на попытках сменить курс разработки ИИ систем в сторону понимаемого человеком способа решения задач ИИ программами. AlphaZero подход делает окончательно невозможным реконструировать процесс, по которому программы приходят к своим выводам, как решать задачу.
Вот превосходный рассказ всей истории AlphaZero https://goo.gl/5B56cT
4) Второе великое событие прошлого года немерено повышает риски от использования ИИ. В 2018 рост мощности HW и SW, сопровождаемый повсеместным триумфом облачных технологий, привел к полной демократизации ИИ технологии (они теперь доступны практически всем), но на самом деле это полная анархизация использования ИИ. Теперь все, от авторитарных правителей до криминала, получают в руки мощнейшие инструменты, и то, как они их применят, зависит лишь от уровня креативности их консультантов.
Вот свежий превосходный пример демократизации ИИ https://goo.gl/Ldyn7J

#ИИ #ИтогиПрогнозы
Метод опережающей интерактивной визуализации позволяет лучше понимать и запоминать числа. Используйте его сами и учите по нему детей, а еще примите участие в эксперименте.
Про это метод, полагаю, никто из вас даже не слышал. А ведь штука весьма полезная.
Суть идеи проста и очевидна – чтобы людям лучше понимать и запоминать ценную информацию, нужно у них предварительно задействовать элемент личной заинтересованности.
Для этого и придуман метод опережающей интерактивной визуализации:
1) сначала спросить, заинтриговав «загадкой»;
2) потом визуализировать «загадку» в максимально простой и понятной форме (в идеале, инфографикой);
3) потом мотивировать человека думать, что и даст нужный результат: улучшение понимания и запоминания до 300%.

✔️ Чтобы все это прочувствовать на практике, поучаствуйте в эксперименте. Он очень интересен, информативен, полезен и, точно, вас удивит.
• Пройдите по ссылке https://ncase.me/experiment-stats/.
• Вам покажут 10 статистических данных о мире, а затем попросят пройти быстрый анонимный опрос.
• В конце января будут представлены результаты, о которых вы узнаете в блоге автора эксперимента – великолепного Ники Кейса https://blog.ncase.me/ .

➡️ Не читающим по-английски – ниже перевод вопросов (так вы легко пройдете эксперимент)
Вопрос 1: Какой % населения мира живет при демократии?
Вопрос 2: какой % населения мира имеет хотя бы одно психическое расстройство или расстройство, связанное со злоупотреблением психоактивными веществами?
Вопрос 3: как изменился со временем уровень смертности от самоубийств в мире?
Вопрос 4: как рождаемость в мире (среднее число детей на маму) изменились с течением времени?
Вопрос 5: Каков % смертности в мире от сердечно-сосудистых заболеваний?
Вопрос 6: какой % смертей во всем мире приходится на хомицид – т.е. убийства + война + терроризм вместе взятые?
Вопрос 7: как изменилось со временем количество ядерных боеголовок в мире?
Вопрос 8: как изменилось со временем мировое соотношение людей, живущих в условиях крайней нищеты?
Вопрос 9: как изменилось загрязнение воздуха с течением времени?
Вопрос 10: насколько изменились глобальные годовые выбросы CO2 с течением времени?

ℹ️ Этот эксперимент был вдохновлен проектом New York Times «You Draw It» на тему «Как скачок передозировки наркотиков соотносится с другими причинами смертности в США?»
Весьма рекомендую посмотреть и его – познавательная и интересная иллюстрация метода опережающей интерактивной визуализации
https://www.nytimes.com/interactive/2017/04/14/upshot/drug-overdose-epidemic-you-draw-it.html

Про память я пишу посты регулярно – см. тэг
#Память
1е открытие 2019 – возможности ИИ оказались небеспредельными.
Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств.

До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений. В январе 2019 к этой проблеме добавилась еще одна, не менее фундаментальная проблема — принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.
На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно — в играх, распознавании, предсказаниях и т.д. — встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году.
Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.
И вот сейчас, на исходе второго десятилетия XXI века гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех технооптимистов ИИ.
• Машинное обучение оказалось не всесильно
• И что еще хуже, — в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.
Продолжить чтение можно
- на Medium https://clck.ru/F3wny
- на Яндекс Дзен https://goo.gl/mFqasZ
#ИИ #МашинноеОбучение
По наводке от читателя, с интересом познакомился с превосходной медиапродукцией современного последователя Джеффа Питерса и Энди Таккера по имени Кли Ирвин.
Если Джефф и Энди 100 лет назад зарабатывали на жизнь с помощью довольно простого, но весьма творческого мошенничества (эксплуатируя человеческие жадность, глупость, страх и тщеславие), то Кли сегодня собирает на порядки больше, доведя мошенничество до такого уровня, что его предшественникам даже и не снился.

Вот классный ролик «Теория Симуляции - Взлом Реальности», сделанный на уровне Спилберга, если бы тот вдруг решил работать на National Geographic или на BBC Science.
Превосходно всё – от сценария до анимации, от монтажа до звука и т.д. (насладитесь - https://clck.ru/F4D6o))
Но больше всего поражает уровень популярной завлекательности в подаче и донесении «майн кампфа» Кли Ирвина – «Emergence Theory».
Это «теория точечного пространства-времени и реальности, как квазикристаллического точечного пространства, спроецированного из кристалла E8». Цель теории – создание единой и непротиворечивой концептуальной модели мира, объединяющей теорию относительности и квантовую механику с феноменами информации и сознания.

К чему я веду? А к тому, чтобы проиллюстрировать, до какого запредельного уровня привлекательности и убедительности для людей, не обладающих всей полнотой информации по какой-либо теме, может доходить фейковая медиареальность в руках талантливых и экстра-креативных мошенников.

Но это еще не самое страшное, а вот что.
Новое исследование «People use less information than they think to make up their minds» https://clck.ru/F4EKp подводит нас к довольно поразительному и неожиданному выводу.
1) Доступ ко всей полноте информации, способный, казалось бы, кардинально влиять на человека в наш информационный век, мало кого спасает.
2) Для подавляющего большинства доступ к обильной информации НЕ способствует формированию у них более информированных мнений и суждений.
3) В итоге, чем к большему объему информации люди имеют потенциальный доступ, тем менее объективно информированным становится большинство.

Результат очевиден:
Информационное общество XXI века обречено на расцвет фейковых новостей и псевдонаучных заманиловок, типа «Emergence Theory», проекта «Чистая вода» и много-много чего еще 🥺

#Псевдонаука #ФейковыеНовости #Психология
Открыт допинг для интеллекта.
Последствия труднопредсказуемы, но одно очевидно, - грядет бум гаджетов-стимуляторов.

Транскраниальная стимуляция мозга в перспективе может заменить многие наркотики и ноотропы на пути обретения сверхчеловеческих когнитивных способностей. На рынке уже есть всевозможные гаджеты, обещающие улучшить настроение, снять страхи и депрессию, убирать боль, контролировать беспокойство и лечить бессонницу.
У всех этих гаджетов и лежащих в их основе методов есть два серьёзных ограничителя для их широкого распространения.
1) Аналогичного эффекта можно достичь и без них с помощью традиционной и нетрадиционной медицины, разрешенных и не совсем наркотиков, все расширяющегося спектра ноотропов, а также алкоголя, медитации, секса … да мало чего еще.
2) Все они обещают лишь убрать у человека какие-то неприятные ощущения или состояния (от депрессии до бессонницы), не даруя людям каких-либо важных и ценных для них качеств.

А вот если бы была возможность повысить свой интеллект!
Хочешь, например, изобретать или найти способ, как обойти конкурентов, или написать какую-то совершенно невообразимую ранее музыку, или …, - включил гаджет и вперёд.
Все современные «усилители интеллекта» - это всевозможные «таблетки для ума» (типа фенотропила) балансирующие на грани полной профанации или плацебо, т.к. никаких серьезных исследований, подтверждающих их эффективность, нет.
Что же до транскраниальных стимуляторов интеллекта, то их нет, поскольку никто не понимает, как можно повысить человеческий интеллект, толком не понимая, как он вообще работает.
И вот прорыв.
Новое исследование «Right temporal alpha oscillations as a neural mechanism for inhibiting obvious associations» (правосторонние альфа-волны, как нейронный механизм подавления очевидных ассоциаций):
- во-первых, показало, как можно повысить интеллект, даже не понимая, как он работает;
- во-вторых, проверило действенность предложенного метода на 4х независимых экспериментах.
Дочитать (еще на 2 мин) можно:
- на Medium http://bit.do/eFTS7
- на Яндекс Дзен http://bit.do/eFTSZ
P.S. из-за российской и украинской блокировок перешёл на бразильский сокращатель ссылок. Если и с ним у вас будут заморочки, - дайте знать плз.

#Креативность #АльфаВолны #СтимуляцияМозга
Каковы шансы войны, которая уничтожит большую часть человечества? Это более вероятно, чем вы думаете.
Пишу об этом уже 2 года. Последний раз всего 12 дней назад – 8го января (ссылка в конце).
Спрашивается, - сколько можно стращать, и зачем так чащу?
Да затем, что еще со времен Кассандры известно, что умное планирование подразумевает обязательный учет наихудшего сценария. И не делать это чревато …

Отклики читателей на мой пост от 8 января были разнообразны.
Оппоненты приводят, в основном, две группы контраргументов.
1) Будущее принципиально непредсказуемо, и потому все прогнозы мало чего стоят.
2) Статистические выкладки не заслуживают доверия, потому что (1) неполные данные и/или потому, что (2) тренды кардинально изменились – формальных доказательств этого нет, но статистика последних десятилетий обнадеживает (читайте Стивена Пинкера).

Что на это ответить? … Не знаю.
Но вот Уго Барди – автор работы, о которой я писал 8го января (профессор физической химии универа Флоренции, уже 10+ лет специализирующийся на матанализе экзистенциальных прогнозов) позавчера в своем блоге ответил оппонентам так.

«Недавно вместе со своими коллегами я занимался статистическим анализом войн за последние 600 лет. Результаты были отрезвляющими: война, похоже, является статистическим явлением, подобным землетрясениям и лесным пожарам.
Войны возникают в соответствии с четко определенными статистическими закономерностями, и с этим мало что можно поделать.
Аарон Клуазет - другой ученый, который работает над той же самой темой, в весьма отрезвляющем анализе рассчитал вероятности будущих войн.
По его подсчетам, крупная война масштаба 2й мировой имеет более 40% шансов произойти в течение ближайших 100 лет.
А война с более чем миллиардом погибших, которая может уничтожить большую часть человечества, с вероятностью 5% может произойти менее чем за 4 столетия.
Самое важное здесь то, что сказанное вовсе не значит, что мы можем расслабиться на ближайшие 4 века. Совсем нет.
Математически правильная трактовка этого прогноза - мы можем ожидать уничтожения значительной части человечества с 5%ной вероятностью в ЛЮБОЙ МОМЕНТ будущего, в течение ближайших 4 столетий».


Осталось осознать, что же представляет собой 5%ная вероятность.
Представьте такой вариант при игре в кости. Например, выпадает шестерка, а затем еще раз шестерка или пятерка. Вероятность того, что этот вариант может случиться при ваших 2х очередных бросках и есть примерно 5%.
Поставите судьбу человечества на кон, утверждая, что такой вариант крайне маловероятен?

Блог Уго Барди называется «Завет Кассандры – всегда планируйте возможность наихудшего сценария».
И это не алармизм, а житейская мудрость, которую люди всегда знали и никогда ей не следовали.

Как у Высоцкого:
Без умолку безумная девица
Кричала: "Ясно вижу Трою павшей в прах!"
Но ясновидцев - впрочем, как и очевидцев -
Во все века сжигали люди на кострах.


Допматериалы:
• Пост Уго Барди http://bit.do/eF2iz с «комментарием к нему» В.С.Высоцкого https://www.youtube.com/watch?v=PYHPS9tDsZo
• Мой пост «Окончательный диагноз — большой войны не миновать» http://bit.do/eF2ih

#БольшаяВойна
Грядет передача управления корпоративным олигархиям, обслуживающим новую аристократию
Этот сценарий сегодня видится весьма вероятным профессору Дереку Боундсу - одному из самых уважаемых мною интеллектуалов.
1) Западные правительства – импотенты.
Запад душит свою экономику, дестабилизирует политику и разрушает демократию. Правительства США, Великобритании и не только - бесполезны и едва ли способны управлять собой, не говоря уже о формировании мирового порядка. В отсутствие у правительств разума и воли, общество дрейфует к моменту цивилизационного самоотрицания. А в это время, не брезгующий самыми безжалостными средствами и обладающий огромными ресурсами Си Цзиньпин поднял знамя эффективного авторитаризма, как предпочтительной модели управления 21-го века.
Подробней по 1й ссылке в посте Дерека.
2) Вся надежда на мегакорпорации.
Это они, доминирующие в потоках капитала США и всего мира, становятся куда более устойчивым буфером против хаоса, чем любое отдельное правительство. И теперь их долг - выйти за целевые рамки получения прибыли и внести свой решающий вклад в развитие общества, служа социальным целям. С таким призывом к мегакорпорациям обратился сам Ларри Финк – глава крупнейшей в мире инвестиционной компании BlackRock.
Подробней по 2й ссылке в посте Дерека.
3) Но тогда вопрос – а на кого работают мегакорпорации?
И ответ на него крайне малоутешителен – на новую аристократию, составляющую сегодня 10% любого современного общества. У них не просто много денег. У них значительно ниже показатели сердечно-сосудистых заболеваний, диабета и ожирения. Они позже заключают браки, которые оказываются более стабильными. Они живут в богатых кварталах, имеют превосходный круг друзей и отличные образовательные возможности. И главное, - они могут все это передать детям, оставляя 90% остальных тщетно колупаться в пыли на дне общества.
Но ведь история показывает, что растущее неравенство имеет свои фазовые переходы. Превзойдя некую границу, оно порождает катастрофическое насилие (хотя бывали, хоть и редкие, но исключения).
Подробней по 3й ссылке в посте Дерека.
А если коротко за 3 мин, то вот видео https://www.youtube.com/watch?v=hb28kAavh0M, которое стоит посмотреть, даже если вы не будете дальше ничего читать по этой теме.

Пост Дерека Боундса
http://mindblog.dericbownds.net/2019/01/the-passing-of-governance-to-corporate.html

#Культура #Политика #Будущее
Возможно, придется отказаться от ИИ на основе машинного обучения, честно признают в Google. Конечно, не сейчас, когда вокруг ИИ так много шумихи и денег. Но со временем.
Некоторые из моих читателей (даже весьма продвинутых в ИИ) убеждены, что проблема черного ящика ИИ - это вчерашний день. Мол, задача объяснимости решений, принимаемых ИИ, говоря по Маяковскому, - «будет сделана и делается уже».
А ведь это совсем не так.

Проект DAPRA Explainable Artificial Intelligence (XAI) - Объяснимый ИИ (о котором я пишу в своем канале с 2016) - пока буксует. Только что закончившаяся 1я фаза проекта не принесла желаемого результата. 2я фаза продлится до мая 2021. Но как говорят участники проекта, хороших идей пока нет.
Компания Google (которая в вопросах ИИ точно не слабее DARPA), подобно Ленину, пошла другим путем. И путь этот окольный:
- вместо общего решения задачи построения объяснимого ИИ, способного в принципе устранить проблему черного ящика,
- Google решил построить инструментарий, позволяющий хотя бы исследовать, на какие факторы ИИ обращает внимание при решении задачи, а на какие нет, и насколько высокие веса при решении задачи ИИ присваивает тем или иным факторам.
Как и всякий окольный путь, подход Google - долгий и без гарантий не опоздать. Но зато можно было бы долго вешать лапшу на уши рынку.

Вот почему так поразительно откровенно смелое интервью Бин Ким (Been Kim), целенаправленно исследующей в Google Brain вопрос интерпретируемости ИИ.

Вот ответы Бин Ким на 2 ключевых вопроса.
1) Насколько важно сейчас решение проблемы интерпретируемости ИИ?
БК: «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет. Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё».
2) Если в принципе может случиться отказ от ставки на машинное обучение, как технологической базы ИИ разработок, когда это могло бы произойти?
БК: «Не думаю, что это произойдёт прямо сейчас, когда вокруг ИИ много шумихи и денег. Но я думаю, что в долгосрочной перспективе человечество может решить — возможно, из-за страха, возможно, из-за отсутствия доказательств [безопасности] — что эта технология не для нас. Может так случиться».

Это честное и смелое интервью Бин Ким https://www.quantamagazine.org/been-kim-is-building-a-translator-for-artificial-intelligence-20190110/ уже перевели и на русский https://22century.ru/popular-science-publications/understanding-machines.

В заключение отмечу.
Google – весьма серьезная мегокорпорация. И просто так её ведущие сотрудники в прессе не болтают. Тем более, о стратегических для компании вопросах.
Тогда что же стоит за столь откровенным интервью Бин Ким?
Возможно, это значит, что Google уже работает над альтернативным направлением и начала готовить для него почву в медиа.
Так что есть над чем задуматься убежденным технооптимистам, считающим, что задача устранения черного ящика ИИ «будет сделана и делается уже».

#ИИ
Почему он такой умный? Ему в детстве много читали.
Новое исследование измерило интеллектуальную фору, даваемую чтением маленьким детям.

Все знают – малышам нужно читать. Но в жизни много чего «нужно». А время у родителей не резиновое. И есть приоритеты поважнее чтения малышам. Посему, спел песенку на ночь и пошел. А читать ему времени нет, - пусть растет и сам читает.
Оказалось, что цена, которую придется заплатить ребенку за такой подход родителей, весьма высока.
Примерно восьмимесячное отставание от тех, кому много читали. А ведь 8 месяцев - это большая разница в языковых навыках, когда речь о детях в возрасте до 5 лет.
Причем:
1) речь идет об отставании буквально во всех языковых навыках:
- восприятие языка (понимание);
- экспрессия языка (как ребенок складывает свои мысли в слова, используя словарный запас и грамматику);
- навыки пред-чтения (например, структурирование слов).
2) отставание в языковых навыках (языковых аспектах интеллекта) предсказывает последующие социальные и образовательные трудности, которые, как показывают исследования, потом труднее всего изменить.

Резюме.
Читайте малышам как можно больше. Для их будущей жизни это важнее, чем унаследованный миллион баксов, который вы наивно хотели бы заработать, сэкономив время на чтении своим малышам.

Подробней: популярно + отчет исследования + материалы исследования
http://www.nuffieldfoundation.org/news/reading-pre-school-children-boosts-language-skills-eight-months
Общее руководство по развитию языковых навыков + спецотчет + плакат
https://educationendowmentfoundation.org.uk/tools/guidance-reports/preparing-for-literacy/
P.S. И даже если вам в детстве мало читали, не повторяйте этой ошибки сейчас, когда речь идет о ваших детях и внуках.
#ЯзыковыеНавыки
Лишится персональной инфы, подобно девственности, можно лишь раз.
И если вы бывали в соцсетях, значит уже её лишились.


Многие трясутся за свою персональную информацию. А кому, собственно, она нужна и зачем?
1) Профессиональным жуликам.
Эти ребята её все равно украдут. И потому бойся - не бойся, - всё одно.
2) Держателям соцсетей и прочим продавцам персональных данных.
Тут нам действительно нужно держать ухо востро, поскольку все что они про нас найдут - обязательно продадут. Многократно и с удовольствием.

Ну а что особенно ценится у покупателей таких данных - так это данные, позволяющие прогнозировать наши поведенческие реакции и преференции. Т.е. то, что особенно нужно для производителей товаров и всякого рода полит/социо-технологов, чтобы втюхивать нам их товары, идеи, политиков и т.п.

Ну а теперь допустим, что вы решили лишить всех этих социосетевых жуков ваших персональных данных и вообще перестали заходить в ФБ и Вконтакте.

И вот тут вас ожидает большой сюрприз. Сведя в 0 свою активность в соцсетях, вы лишите их лишь 5% нужной им информации о вас.
Секрет в том, что 95% нужной им информации о вас содержится в ваших социальных связях, из которых с хорошей вероятностью вычисляются ваши поведенческие реакции и преференции. И даже если вы перестали активничать в соцсети, 95% нужной социосетевым жукам информации можно считать из оставшейся информации о ваших связях (а она то никогда не стирается у практичных владельцев соцсетей).

Таков вывод нового исследования "Information flow reveals prediction limits in online social activity", подошедшего весьма тщательно к описываемому вопросу путем исследования всех основных контентных и временных факторов, формирующих инфопотоки в соцсетях (авторская ссылка на исследование https://goo.gl/iCC62X).

Так что можно не париться. Если вы в соцсетях уже год-другой поварились, девственность ваших персональных данных уже утеряна. А социосетевые жуки будут ее еще не один год юзать, продавая кому попало, не смотря на ваш гордый (но бесполезный) уход.

Резюме:
Про опасения, что на ваших данных наживаются, можно забыть и забить, радостно продолжая сжигать самое дорогое, что у вас есть, - время в соцсетях.
#Соцсети