Малоизвестное интересное
69.6K subscribers
148 photos
2 videos
11 files
1.86K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
加入频道
Сегодня логика принятия решений машиной, зачастую, не понятна никому.

Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.

А главной проблемой при вкушении этих плодов оказывается:
- не точность принимаемых машиной решений,
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.

По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data, о которой я упомянул в конце предыдущего поста.

Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA .
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence

Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.

Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):

1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?

Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.

Чем не сюжет для нового романа Пелевина?

P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics (российским отделением которой руководил я), написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI?

#XAI #Пелевин
Битва масонов Google против чекистов DARPA

Умопомрачительность некоторых технологических новостей делает их неразличимыми от сюжетов провидца самоисполняющихся пророчеств, эксперта по криптомасонскому влиянию и заклинателя рукотворных реальностей Виктора Пелевина.

Всего через 2 месяца после выхода нового романа Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами», поступающие технологические новости так здорово вписываются в контекст описанной Пелевиным «крайней битвы», что грех об этом не написать.

Вот я и написал здесь на 4 мин. чтения.

А если на 1 минуту чтения, то так.

Диспозиция

В роли масонов - исследователи Google Brain – команды глубинного обучения нейронных сетей корпорации Google, входящей в пятерку сильнейших команд мира в данной области.

В роли чекистов – спецагенты и специалисты DARPA (Агентство передовых оборонных исследовательских проектов Министерства обороны США)

Поле битвы – криптография и искусственный интеллект (ИИ).

Ставка в битве – место человека в криптографии будущего (либо такое место у человека будет, либо нет), а, скорее всего, и не только в криптографии.

«Чекисты» хотят

С помощью проекта Explainable Artificial Intelligenceнаучить нейронные сети объяснять людям свои решения.

«Масоны» хотят

Помешать «Чекистам» :)

С помощью проекта Inhuman encryption научить нейронные сети самим создавать собственные методы шифрования, в пределе, недоступные для дешифрации существующими методами.

Если победят «Масоны»

человеку не останется места в криптографии.

Изменить ситуацию могут лишь «Чекисты»

Если им удастся понять логику решений нейронных сетей, станет возможным понять и то, каким методом они шифрует свои сообщения.

#Пелевин
ИМИТАЦИЯ ИНТЕЛЛЕКТА
(или все мы немножко пупарасы)

– Мной ничто не управляет, – сказал я, – Я сам управляю всем. 
– Чем?
– Тобой, например, – засмеялся я.
– А что управляет тобой, когда ты управляешь мной?
В.Пелевин «S.N.U.F.F.»


Интеллекция Григория Бакунова не сколько отвечает на вопросы по тематике ИИ, сколько мотивирует слушателей задуматься о таких вопросах.

Причем выбор вопросов для обдумывания весьма индивидуален и зависит, как говорится, от уровня «собственной испорченности».

По-видимому, я оказался «предельно испорченным», поскольку озадачился основополагающим вопросом целеполагания – зачем вообще нужна имитация интеллекта?

Зачем люди пытаются создать машину (программу), неотличимую при общении с ней от человека

Ведь общение по-человечески:
1) не делает машину умнее;
2) никак не улучшает результаты выполняемой ею работы.
.

Общение по-человечески - это всего лишь внешний интерфейс машины, делающий, в ряде специальных случаев (руки у человека заняты, он не рядом с машиной, бежит, …), общение с ней более эргономичным и занимательным.

Что же получается? Попытки имитации общения по-человечески делаются не из практических целей, а всего лишь из любви к искусству? Это что-то наподобие живописи и скульптуры, где мастера искусств пытаются изобразить человека «как живого» на полотнах и в камне?

Думаю, что нет.

Есть одна, но столь значимая практическая цель общения с машиной по-человечески, что на ее достижение человечество не пожалеет никаких денег.

Это создание кукол-биороботов для «пупарасов», т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F».

Такая кукла, стоимостью с дом, совершенный андроид с регулируемыми пользовательскими настройками. Для пупарасов главное - самостоятельно регулировать основные параметры принадлежащих им кукол. Выставленные на максимум «сучество» и «духовность» позволяют владельцам достигать допаминового резонанса, или необыкновенного сексуального удовольствия.
- - -
О трудном пути к подобной цели, собственно, и рассказывал в интеллекции Григорий Бакунов. О том, как создать ИИ:
— способный реагировать в ходе общения с человеком абсолютно непредсказуемо;
— имитирующий внешние проявления характера: например, «скверность характера на сегодня» - эвфемизм Пелевинского «сучества» - позволяющего Вике (разрабатываемому Григорием персональному ассистенту) вести себя совсем по-женски (демо Вики показывается с 15:40 по 21:05);
— столь искусно имитирующий рассудочную деятельность, что это воспринимается лучше рассудочной деятельности (хотя стоящий за этим ИИ тупой, как пробка).

#ИИ #Пелевин

-   -   -   
Конечно, до уровня описанных Пелевиным кукол-биороботов Вике и подобным ей персональным ассистентам еще далеко. Да у них и тел даже нет пока.

Но все только начинается. Тело появится, - было б дело. А главное дело сейчас – добиться полной имитации интеллекта, в котором можно регулировать «человеческие настройки».

Прогресс в этом деле налицо, и растущее «сучество» Вики тому пример.

Финансовый же потенциал этого дела столь огромен, что иных стимулов для работ по имитации интеллекта не потребуется. Рынок огромен. Ведь все мы немножко пупарасы.