Малоизвестное интересное
71.3K subscribers
194 photos
2 videos
11 files
1.91K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
加入频道
ОБ AI ПО ГАМБУРГСКОМУ СЧЕТУ

   Уже не раз писал, что о перспективах технологий нельзя судить по статьям ученых, вендоров и журналистов. Слишком они противоречивы и ангажированы.
Лишь экспертный анализ бизнес-консультантов с высокой репутацией способен оценить положение и перспективы по гамбургскому счету – независимо от сиюминутных обстоятельств и корыстных интересов, максимально реалистично, практично и точно.
И сегодня такая возможность появилось с выходом отчета McKinsey Global Institute.


Желающие могут скачать отчет здесь (PDF 3MB, 80 стр.)

Я же попробую отжать в сухой остаток ключевые тезисы и визуализировать их.

1️⃣ Мы в самом начале AI-революции:
— инвестиции уже колоссальные и быстро растут;
— понимания, что и как с этим делать, пока, к сожалению, мало;
— реальной отдачи в бизнесе – еще меньше;
главное поле битвы пока что не бизнес, а патенты и интеллектуальная собственность.

2️⃣ Однако, реальную отдачу от AI для бизнеса уже получают ранние внедренцы - «по жизни цифровые индустрии». Например:
— Netflix получает $1 млрд в год только за свой уникальный рекомендательный сервис, удерживающий клиентов от ухода к конкурентам;
— Amazon сократил интервал времени «Заказ-Отгрузка» с 70 мин. до 15 мин., сократив этим затраты на 20% и увеличив емкость складов на 50%.

3️⃣ США и Китай ушли в отрыв. Даже Европе (не говоря уж о России) практически нечего ловить.
— только Baidu и Google уже тратят по $20-$30 млрд внутренних инвестиций в год на AI;
— 90% идет на R&D и лишь 10% на M&A (т.е. рынок еще в пеленках);
— основные внешние инвестиции (от внешних инвесторов) вкладываются в Машинное обучение, хотя этот сегмент неотвратимо растворяется в других.

4️⃣ Перспективы траектории «спрос-предложение» сильно отличаются для разных индустрий
— финансы, хай-тек, телеком съедят больше половины AI пирога;
обучение (увы!) застрянет, почти как строительство.

5️⃣ Ключевые вызовы на пути AI-революции и Цифровой трансформации – не массовая безработица и «бунт машин», а вот что:
— понять, как учить и переучивать людей;
— создать культуру кооперации с роботами (чтоб не гнобить и не подсиживать их);
— понять, как решать вопросы ответственности, доверия и правового обеспечения при сосуществовании и кооперации человека и AI - тут пока что ВООБЩЕ КОНЬ НЕ ВАЛЯЛСЯ И НИЧЕГО НЕ ПОНЯТНО
- - - - -
Как видите, AI по гамбургскому счету не сильно похож на то, что о нем пишут ученые, вендоры и журналисты. На то он и гамбургский счет 😳

#McKinsey #AI #МашинноеОбучение
Я НАЧАЛЬНИК, ТЫ – AI

В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.

И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».

В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
   --  истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.

Суть этого «неприятия» в следующем.

Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.

Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.

   Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать». 


В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.

Например, вот такая ситуация:

(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,

(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;

(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.

В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.

В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».

Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.

Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.

Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.

Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.

- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.

Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.

Так за кем должно оставаться финальное решение???

N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.

Такова важность решения вопроса о «неприятии алгоритма».

Статья ссылается на это исследование.
Но есть и более новое.

#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
УТИНЫЙ ТЕСТ ДЛЯ AI

Читатель канала предложил рассказать, «что стоит за сообщениями про то, как Фейсбук убил проект, где два чат бота стали разговаривать друг с другом на непонятном языке - наверняка журналисты все переврали».
Рассказываю.

1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.

2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?

— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).

— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.

— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.

Так почему же появляются все новые и новые фейковые новости вокруг темы языков ботов и шире – языков AI?

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.

Ответ на поставленный вопрос, хоть и лежит на поверхности, но осознается не сразу.

✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)

✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.

Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.

В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.

Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.


#AI #ФейковыеНовости #Язык
КАК AI ОЦЕНИВАЕТ ПУТИНА И ТРАМПА

Последние несколько постов получились с претензией на некое высоконаучное знание. И чтобы чуть понизить градус претенциозности, попробую сегодня рассказать о чем-то не только малоизвестном и интересном, но и забавно-прикольном. 😃

Понимание эмоционального подтекста сетевых высказываний (твитов, коментов и т.д.) – задача стоимостью в десятки миллиардов долларов.

Ее решение до последнего времени никак не находилось. Куда там эмоциональный подтекст, - нам бы точный смысл понять.

И вот прорыв. Причем идея лежала перед носом уже не один год.

Поскольку эмоциональный подтекст упрятан в языке неимоверно глубоко, что, если и не пытаться его самим оттуда откапывать, а предложить AI заняться этим, обучая его на текстах, содержащих эмодзи - идеограммы и смайлики, используемые в электронных сообщениях и веб-страницах.

Идея оказалась крайне продуктивной. Натасканный на текстах с эмодзи AI научился определять сарказм лучше людей.

Столь великолепный результат поставил 2 новых, весьма неожиданных, вопроса:
 1) Как еще (кроме оценки эмоционального подтекста сетевых высказываний) можно использовать столь утонченное понимание AI человеческого сарказма?

2) Поскольку «ход мыслей» AI при выявлении сарказма нам неизвестен (что типично при глубинном обучении), могут ли за этим «ходом мыслей» прятаться некие скрытые для нас смыслы?


Первое, что приходит в голову по вопросу 1 на волне хайпа рэп-батла Oxxxymiron против Гнойного – использовать утонченный сарказм AI для написания панчлайнов (это короткая строка или фраза, которая должна сильно задеть соперника).

Эту идею уже пытаются реализовать на http://deepbeat.org/ , но пока не сильно удачно: со смыслом и ритмом AI кое-как справляется. А вот сарказм они пока реализовать не смогли (почему - см. здесь и здесь)

Ответ на 2й вопрос может быть дан на примере здесь.

Например, что за «скрытая от нас мысль» подвигает AI при оценке фразы Putin is the best president ever оценить эмоциональный подтекст имени Putin - эмодзи 👏 , а эмоциональный подтекст имени Trump во фразе Trump is the best president ever - эмодзи 💀?

О чем это AI – о возможном ядерном ударе Трампа по КНДР или его вероятном импичменте?
И так ли уж для AI мил Путин?

Ответ на последний вопрос я попробовал получить на http://deepbeat.org/ (если будете повторять, не забудьте включить режим Deep Learning справа сверху), задав 1й строчкой нового рэпа
Putin is the best president ever
AI думал 30 сек и выдал набор вариантов 2й строки. Например, такой:
Truth be told never made a deal with Satan 😈

#AI
Новый поворот в развитии ИИ

С одной стороны, машинное обучение достигло многого. ИИ уже обыгрывает чемпионов в Го, неплохо управляет автомобилем, быстро прогрессирует в игре в покер, распознает рак на МРТ лучше врачей и т.д. и т.п.
С другой стороны, не понятно, куда двигаться дальше. А нужен какой-то принципиальный поворот. Ведь до универсальных возможностей мозга пока, как до Альфа Центавра. ИИ по-прежнему туп, как пробка, и лишь умеет перемалывать тонны данных, самосовершенствуясь в решении узких специализированных задач.
При смене задачи, приходится начинать учить ИИ (или давать ему самому учиться), по сути, с нуля. Да и с перемалыванием данных засада – ИИ не умеет сам отбирать нужные данные, а лишь способен очень быстро обрабатывать всё, поступающее ему на вход. А как известно – «мусор на входе – мусор на выходе».
И вот – новый поворот.
На только что закончившейся конференции IJCAI 2017 IBM представила 2 новых направления совершенствования ИИ, основанных на имитации функциональных свойств мозга.

1е направление – использование модели внимания, мотивируемого полезностью - способности быстро выбирать и обрабатывать самую нужную и важную информацию из огромного потока сенсорных сигналов (визуальных, слуховых и т. д.) – по англ. Quick adaptation with reward-driven attention.
Новый алгоритм учится быстро фокусировать внимание на обработке самых важных данных. И это обучение основано на вознаграждении (обратной связи), получаемом во время выполнения задания. Чем выше награда, тем больше внимания будет уделяться определенной части данных.
Новый подход абсолютно революционен. Он позволяет не просто мотивировать ИИ, но и увязывать мотивацию с целью действий. Т.е. действие перестает быть просто обучением ИИ, а способно, например, превратиться в обеспечение ИИ собственного существования (так, к примеру, работает мозг антилопы, в зоне внимания которой дрогнула ветка, за которой может скрываться тигр).

2е направление основано на нейрогенном обучении или нейропластичности - адаптации модели меняющегося мира в реальном времени – по англ. Building memories for long term adaptation: neurogenetic learning. В мозге это возможно за счет роста новых и разрушении старых клеток мозга (нейронов) и динамической перестройки их связей.
До сих пор основой машинного обучения было изменение силы нейронных связей. Новый революционный подход позволяет также расширять и сжимать скрытые слои сети, имитируя рождение и смерть нейронов.
Нейрогенез добавляет новое измерение в машинное обучение. Алгоритм не только адаптируется к новой среде (например, к новому классу задач), но также сохраняет воспоминания о прошлом опыте решения иных классов задач, тем самым делая шаг к ИИ, обучающемуся на протяжении всей его «жизни».
- - - - -
P.S. Революционность двух вышеописанных подходов такова, что кавычки в слове «жизнь» применительно к ИИ могут стать лишними.

Подробней со ссылками на научные статьи с описанием экспериментов – здесь
А тут и тут – статьи с популярным изложением.

#AI
Мнение технологических реалистов
Технологические пессимисты все громче взывают о рисках ИИ и робототехники, создающих угрозы для нашей конфиденциальности, рабочих мест и даже безопасности, поскольку все больше и больше задач передаются мозгам на основе кремния.
Оптимисты же, в противовес, рисуют все более поразительные картины будущего, где роботы с ИИ уже не только грузчики, уборщики и слесари, а художники, поэты, композиторы, режиссеры и дирижеры.
Голос реалистов слышен не так громко, и потому особенно ценен. Особенно, если речь не просто об отдельных публикациях, а о ресурсах, взявших на себя миссию «просвещенных реалистов», цель которых «делать своих подписчиков умнее каждый день», рассказывая о применениях наиболее прорывных технологий, которые уже работают.

Первый из таких ресурсов, который я смело рекомендую, - BBC Future, на днях рассказал о уже работающих проектах, показывающих замечательные результаты за счет максимального использования 3х простых качеств ИИ при выполнении рутинных работ:
1) физическая неутомимость,
2) толерантность к скуке,
3) способностью обнаруживать паттерны - шаблоны, выявляющие закономерности в рисунках, фото, звуках, динамике изменений и т.д. и т.п.
По всем 3м качествам, ИИ намного превосходит все, на что способны люди.
Всего один пример (остальные смотрите на BBC Future).
Проект Microsoft’s Project Premonition использует ИИ для согласованного управления:
— дронами, находящими «места тусовки» москитов,
— роботизироваными ловушками москитов,
— анализаторами патогенов в ДНК крови, забранной москитами из укушенных ими животных.
Система уже работает и позволяет с точностью 88% определять потенциальные очаги эпидемий лихорадки Зика за 3 мес. до того, как она может начаться – видео

Второй из рекомендуемых ресурсов «просвещенных реалистов» - российский телеграм-канал «Это работает».
Столь же обширный по тематике, как и BBC Future, этот канал обладает своей фишкой. Он засеивает Рунет видео-лекциями, собирая их в тематические «сериалы», закручивая их интригу «от сезона к сезону», так, что они превращаются в восприятии аудитории в один захватывающий фильм на единственную тему - человечество в эпоху Интернета.
Вот пример такого «сериала» из всего одного поста:
— Сон, мелатонин, старение: в чём связь?
— Удивительная история открытия и освоения одного из самых загадочных явлений природы – электричества.
— Почему этику в России так часто заменяют рациональные мотивы и стремление к утопической стабильности.
— Счастье дурака: что, как не глупость, может наполнить нашу жизнь удовольствием и радостью.

Для меня же самое главное, что оба канала - BBC Future и «Это работает» – источник удовлетворения ненасытного любопытства.
А любопытство, как писал Станислав Лем, это то, что объединяет разум и сверхразум.
Так что, оно того стоит!

#AI #ПолезныеРесурсы