Сегодня логика принятия решений машиной, зачастую, не понятна никому.
Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.
А главной проблемой при вкушении этих плодов оказывается:
- не точность принимаемых машиной решений,
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.
По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data, о которой я упомянул в конце предыдущего поста.
Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA .
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence
Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.
Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?
Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.
Чем не сюжет для нового романа Пелевина?
P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics (российским отделением которой руководил я), написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI?
#XAI #Пелевин
Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.
А главной проблемой при вкушении этих плодов оказывается:
- не точность принимаемых машиной решений,
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.
По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data, о которой я упомянул в конце предыдущего поста.
Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA .
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence
Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.
Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?
Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.
Чем не сюжет для нового романа Пелевина?
P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics (российским отделением которой руководил я), написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI?
#XAI #Пелевин
Битва масонов Google против чекистов DARPA
Умопомрачительность некоторых технологических новостей делает их неразличимыми от сюжетов провидца самоисполняющихся пророчеств, эксперта по криптомасонскому влиянию и заклинателя рукотворных реальностей Виктора Пелевина.
Всего через 2 месяца после выхода нового романа Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами», поступающие технологические новости так здорово вписываются в контекст описанной Пелевиным «крайней битвы», что грех об этом не написать.
Вот я и написал здесь на 4 мин. чтения.
А если на 1 минуту чтения, то так.
Диспозиция
В роли масонов - исследователи Google Brain – команды глубинного обучения нейронных сетей корпорации Google, входящей в пятерку сильнейших команд мира в данной области.
В роли чекистов – спецагенты и специалисты DARPA (Агентство передовых оборонных исследовательских проектов Министерства обороны США)
Поле битвы – криптография и искусственный интеллект (ИИ).
Ставка в битве – место человека в криптографии будущего (либо такое место у человека будет, либо нет), а, скорее всего, и не только в криптографии.
«Чекисты» хотят
С помощью проекта Explainable Artificial Intelligenceнаучить нейронные сети объяснять людям свои решения.
«Масоны» хотят
Помешать «Чекистам» :)
С помощью проекта Inhuman encryption научить нейронные сети самим создавать собственные методы шифрования, в пределе, недоступные для дешифрации существующими методами.
Если победят «Масоны»
человеку не останется места в криптографии.
Изменить ситуацию могут лишь «Чекисты»
Если им удастся понять логику решений нейронных сетей, станет возможным понять и то, каким методом они шифрует свои сообщения.
#Пелевин
Умопомрачительность некоторых технологических новостей делает их неразличимыми от сюжетов провидца самоисполняющихся пророчеств, эксперта по криптомасонскому влиянию и заклинателя рукотворных реальностей Виктора Пелевина.
Всего через 2 месяца после выхода нового романа Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами», поступающие технологические новости так здорово вписываются в контекст описанной Пелевиным «крайней битвы», что грех об этом не написать.
Вот я и написал здесь на 4 мин. чтения.
А если на 1 минуту чтения, то так.
Диспозиция
В роли масонов - исследователи Google Brain – команды глубинного обучения нейронных сетей корпорации Google, входящей в пятерку сильнейших команд мира в данной области.
В роли чекистов – спецагенты и специалисты DARPA (Агентство передовых оборонных исследовательских проектов Министерства обороны США)
Поле битвы – криптография и искусственный интеллект (ИИ).
Ставка в битве – место человека в криптографии будущего (либо такое место у человека будет, либо нет), а, скорее всего, и не только в криптографии.
«Чекисты» хотят
С помощью проекта Explainable Artificial Intelligenceнаучить нейронные сети объяснять людям свои решения.
«Масоны» хотят
Помешать «Чекистам» :)
С помощью проекта Inhuman encryption научить нейронные сети самим создавать собственные методы шифрования, в пределе, недоступные для дешифрации существующими методами.
Если победят «Масоны»
человеку не останется места в криптографии.
Изменить ситуацию могут лишь «Чекисты»
Если им удастся понять логику решений нейронных сетей, станет возможным понять и то, каким методом они шифрует свои сообщения.
#Пелевин
Medium
Битва масонов Google против чекистов DARPA
Умопомрачительность некоторых технологических новостей делает их неразличимыми от сюжетов провидца самоисполняющихся пророчеств, эксперта…
ИМИТАЦИЯ ИНТЕЛЛЕКТА
(или все мы немножко пупарасы)
Интеллекция Григория Бакунова не сколько отвечает на вопросы по тематике ИИ, сколько мотивирует слушателей задуматься о таких вопросах.
Причем выбор вопросов для обдумывания весьма индивидуален и зависит, как говорится, от уровня «собственной испорченности».
По-видимому, я оказался «предельно испорченным», поскольку озадачился основополагающим вопросом целеполагания – зачем вообще нужна имитация интеллекта?
❓ Зачем люди пытаются создать машину (программу), неотличимую при общении с ней от человека❓
Ведь общение по-человечески:
1) не делает машину умнее;
2) никак не улучшает результаты выполняемой ею работы..
Общение по-человечески - это всего лишь внешний интерфейс машины, делающий, в ряде специальных случаев (руки у человека заняты, он не рядом с машиной, бежит, …), общение с ней более эргономичным и занимательным.
Думаю, что нет.
Есть одна, но столь значимая практическая цель общения с машиной по-человечески, что на ее достижение человечество не пожалеет никаких денег.
Это создание кукол-биороботов для «пупарасов», т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F».
Такая кукла, стоимостью с дом, совершенный андроид с регулируемыми пользовательскими настройками. Для пупарасов главное - самостоятельно регулировать основные параметры принадлежащих им кукол. Выставленные на максимум «сучество» и «духовность» позволяют владельцам достигать допаминового резонанса, или необыкновенного сексуального удовольствия.
- - -
О трудном пути к подобной цели, собственно, и рассказывал в интеллекции Григорий Бакунов. О том, как создать ИИ:
— способный реагировать в ходе общения с человеком абсолютно непредсказуемо;
— имитирующий внешние проявления характера: например, «скверность характера на сегодня» - эвфемизм Пелевинского «сучества» - позволяющего Вике (разрабатываемому Григорием персональному ассистенту) вести себя совсем по-женски (демо Вики показывается с 15:40 по 21:05);
— столь искусно имитирующий рассудочную деятельность, что это воспринимается лучше рассудочной деятельности (хотя стоящий за этим ИИ тупой, как пробка).
#ИИ #Пелевин
(или все мы немножко пупарасы)
– Мной ничто не управляет, – сказал я, – Я сам управляю всем.
– Чем?
– Тобой, например, – засмеялся я.
– А что управляет тобой, когда ты управляешь мной?
В.Пелевин «S.N.U.F.F.»
Интеллекция Григория Бакунова не сколько отвечает на вопросы по тематике ИИ, сколько мотивирует слушателей задуматься о таких вопросах.
Причем выбор вопросов для обдумывания весьма индивидуален и зависит, как говорится, от уровня «собственной испорченности».
По-видимому, я оказался «предельно испорченным», поскольку озадачился основополагающим вопросом целеполагания – зачем вообще нужна имитация интеллекта?
❓ Зачем люди пытаются создать машину (программу), неотличимую при общении с ней от человека❓
Ведь общение по-человечески:
1) не делает машину умнее;
2) никак не улучшает результаты выполняемой ею работы..
Общение по-человечески - это всего лишь внешний интерфейс машины, делающий, в ряде специальных случаев (руки у человека заняты, он не рядом с машиной, бежит, …), общение с ней более эргономичным и занимательным.
Что же получается? Попытки имитации общения по-человечески делаются не из практических целей, а всего лишь из любви к искусству? Это что-то наподобие живописи и скульптуры, где мастера искусств пытаются изобразить человека «как живого» на полотнах и в камне?
Думаю, что нет.
Есть одна, но столь значимая практическая цель общения с машиной по-человечески, что на ее достижение человечество не пожалеет никаких денег.
Это создание кукол-биороботов для «пупарасов», т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F».
Такая кукла, стоимостью с дом, совершенный андроид с регулируемыми пользовательскими настройками. Для пупарасов главное - самостоятельно регулировать основные параметры принадлежащих им кукол. Выставленные на максимум «сучество» и «духовность» позволяют владельцам достигать допаминового резонанса, или необыкновенного сексуального удовольствия.
- - -
О трудном пути к подобной цели, собственно, и рассказывал в интеллекции Григорий Бакунов. О том, как создать ИИ:
— способный реагировать в ходе общения с человеком абсолютно непредсказуемо;
— имитирующий внешние проявления характера: например, «скверность характера на сегодня» - эвфемизм Пелевинского «сучества» - позволяющего Вике (разрабатываемому Григорием персональному ассистенту) вести себя совсем по-женски (демо Вики показывается с 15:40 по 21:05);
— столь искусно имитирующий рассудочную деятельность, что это воспринимается лучше рассудочной деятельности (хотя стоящий за этим ИИ тупой, как пробка).
#ИИ #Пелевин
- - -
Конечно, до уровня описанных Пелевиным кукол-биороботов Вике и подобным ей персональным ассистентам еще далеко. Да у них и тел даже нет пока.
Но все только начинается. Тело появится, - было б дело. А главное дело сейчас – добиться полной имитации интеллекта, в котором можно регулировать «человеческие настройки».
Прогресс в этом деле налицо, и растущее «сучество» Вики тому пример.
Финансовый же потенциал этого дела столь огромен, что иных стимулов для работ по имитации интеллекта не потребуется. Рынок огромен. Ведь все мы немножко пупарасы.