Forwarded from Малоизвестное интересное
Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять.
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях, когда:
- мы так и не договорились, что понимаем под ИИ;
- у нас нет способа сравнить ИИ между собой и с интеллектом человека.
В результате
(1) мы разрабатываем нечто, что помогает нам решать конкретные задачи, но, возможно, не является при этом интеллектом: ни подобием человеческого (об определении которого мы не договорились), ни искусственным (поскольку невозможно сделать искусственную сепульку, не договорившись, что такое натуральная сепулька);
(2) мы не в состоянии реально оценивать прогресс в создании ИИ, поскольку:
- не определились с направлением «куда плывем»;
- не договорились, как оценивать достигнутое (сравнивать разные интеллекты по «интеллектуальности»).
В итоге мы подобны морякам, отправившимся в далекое плавание, не договорившись, куда плывут, и не имея средств определения текущего местоположения.
В общем, ситуация тупиковая, не смотря на явный прогресс в прикладном использовании машинного обучения.
Ибо:
- с машинным обучением все ОК;
- а с созданием ИИ полная Ж.
И поэтому существующую парадигму ИИ необходимо кардинально менять.
Все вышесказанное - не просто мой очередной призыв к читателям канала «Малоизвестное интересное». Это преамбула к 60ти страничному «манифесту» On the Measure of Intelligence, на днях опубликованном Франсуа Шнолле – известным исследователем ИИ в компании Google, создателем библиотеки глубокого обучения Keras и соразработчиком фреймворка машинного обучения TensorFlow.
Шнолле сделал то, что не может позволить себе Google: открыто заявить – король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять.
Ну а теперь о главном.
Главная ценность «Манифеста Шолле» не в его смелости и точности формулировок. А в том, что предложена четкая альтернатива, детально сформулировавшая (1) куда плыть и (2) как измерять свое местоположение на пути к цели (как сравнивать создаваемые интеллекты между собой и человеком).
Дочитать, что конкретно предложил Франсуа Шолле - на 90 сек. чтения в моем посте
- на Medium http://bit.do/fji34
- на Яндекс Дзен https://clck.ru/KZuPs
#ИИ
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях, когда:
- мы так и не договорились, что понимаем под ИИ;
- у нас нет способа сравнить ИИ между собой и с интеллектом человека.
В результате
(1) мы разрабатываем нечто, что помогает нам решать конкретные задачи, но, возможно, не является при этом интеллектом: ни подобием человеческого (об определении которого мы не договорились), ни искусственным (поскольку невозможно сделать искусственную сепульку, не договорившись, что такое натуральная сепулька);
(2) мы не в состоянии реально оценивать прогресс в создании ИИ, поскольку:
- не определились с направлением «куда плывем»;
- не договорились, как оценивать достигнутое (сравнивать разные интеллекты по «интеллектуальности»).
В итоге мы подобны морякам, отправившимся в далекое плавание, не договорившись, куда плывут, и не имея средств определения текущего местоположения.
В общем, ситуация тупиковая, не смотря на явный прогресс в прикладном использовании машинного обучения.
Ибо:
- с машинным обучением все ОК;
- а с созданием ИИ полная Ж.
И поэтому существующую парадигму ИИ необходимо кардинально менять.
Все вышесказанное - не просто мой очередной призыв к читателям канала «Малоизвестное интересное». Это преамбула к 60ти страничному «манифесту» On the Measure of Intelligence, на днях опубликованном Франсуа Шнолле – известным исследователем ИИ в компании Google, создателем библиотеки глубокого обучения Keras и соразработчиком фреймворка машинного обучения TensorFlow.
Шнолле сделал то, что не может позволить себе Google: открыто заявить – король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять.
Ну а теперь о главном.
Главная ценность «Манифеста Шолле» не в его смелости и точности формулировок. А в том, что предложена четкая альтернатива, детально сформулировавшая (1) куда плыть и (2) как измерять свое местоположение на пути к цели (как сравнивать создаваемые интеллекты между собой и человеком).
Дочитать, что конкретно предложил Франсуа Шолле - на 90 сек. чтения в моем посте
- на Medium http://bit.do/fji34
- на Яндекс Дзен https://clck.ru/KZuPs
#ИИ
Forwarded from Малоизвестное интересное
Теперь у DeepMind два техно-джокера.
Конкуренты, а также генштабы Китая и России нервно курят.
Конкуренты, а также генштабы Китая и России уже не первый год напряженно следят, как DeepMind сжигает миллиарды долларов, вроде как, на игрушки. При этом все понимают, что, побеждая людей в самых сложных интеллектуальных играх с помощью своего алгоритма AlphaZero, разработчики нацеливаются на что-то куда более важное, чем игры.
Но на что?
Похоже, теперь это прояснилось для конкурентов и генштабов. Правда, от этого знания им вряд ли полегчает, поскольку следующей областью применения AlphaZero оказался квантовый компьютинг. Технологическое направление ИИ, где мировой приоритет имеет DeepMind – это техно-джокер современности. Но в колоде 2 джокера, и второй – это квантовый компьютинг. Объединение 2х джокеров на одной алгоритмической платформе может стать страшной силой. И вот нате вам.
Исследовательская группа Орхусского университета с помощью компьютерного моделирования применила алгоритм AlphaZero к трем различным задачам управления, каждая из которых потенциально может быть использована в квантовом компьютере.
Результат поразительный. Так же, как при игре в шахматы, Го, Сёги и Старкрафт, алгоритм проявил недоступный для людей особый вид креативности. Алгоритм научился использовать базовую симметрию проблемы, которую исследователи изначально вообще не рассматривали.
Алгоритм AlphaZero от DeepMind продемонстрировал человечеству недостижимый для людей уровень интеллекта. Алгоритм находит оптимальные пути между кластерами данных, используя собственные приемы, подобные эвристикам человека. Но при этом вычислительный процесс масштабируется до n-й степени.
Ключом к успеху AlphaZero стала комбинация поиска по дереву Монте-Карло с одношаговым lookahead-оптимизатором нейронной сети (он выбирает направление поиска, просматривая последовательность весов, генерируемых другим оптимизатором). В результате lookahead-информация из самых дальних областей дерева значительно увеличивает точность обучения нейронной сети, что позволяет проводить намного более сфокусированный и безэвристический поиск.
Что не менее важно (опять же, как и в шахматах с Го), алгоритм показал, что наивысший уровень при решение интеллектуальных задач доступен не человеку и не компьютеру, а их гибридному интеллекту. Как сказал про это проф. Джейкоб Шерсон: «Это указывает на то, что мы все еще нуждаемся в человеческих навыках и опыте, и что цель будущего должна заключаться в том, чтобы понять и разработать гибридные интеллектуальные интерфейсы, которые оптимально используют сильные стороны обоих».
Статья в Nature Global optimization of quantum dynamics with AlphaZero deep exploration
#КвантовыйКомпьютинг #ИИ
Конкуренты, а также генштабы Китая и России нервно курят.
Конкуренты, а также генштабы Китая и России уже не первый год напряженно следят, как DeepMind сжигает миллиарды долларов, вроде как, на игрушки. При этом все понимают, что, побеждая людей в самых сложных интеллектуальных играх с помощью своего алгоритма AlphaZero, разработчики нацеливаются на что-то куда более важное, чем игры.
Но на что?
Похоже, теперь это прояснилось для конкурентов и генштабов. Правда, от этого знания им вряд ли полегчает, поскольку следующей областью применения AlphaZero оказался квантовый компьютинг. Технологическое направление ИИ, где мировой приоритет имеет DeepMind – это техно-джокер современности. Но в колоде 2 джокера, и второй – это квантовый компьютинг. Объединение 2х джокеров на одной алгоритмической платформе может стать страшной силой. И вот нате вам.
Исследовательская группа Орхусского университета с помощью компьютерного моделирования применила алгоритм AlphaZero к трем различным задачам управления, каждая из которых потенциально может быть использована в квантовом компьютере.
Результат поразительный. Так же, как при игре в шахматы, Го, Сёги и Старкрафт, алгоритм проявил недоступный для людей особый вид креативности. Алгоритм научился использовать базовую симметрию проблемы, которую исследователи изначально вообще не рассматривали.
Алгоритм AlphaZero от DeepMind продемонстрировал человечеству недостижимый для людей уровень интеллекта. Алгоритм находит оптимальные пути между кластерами данных, используя собственные приемы, подобные эвристикам человека. Но при этом вычислительный процесс масштабируется до n-й степени.
Ключом к успеху AlphaZero стала комбинация поиска по дереву Монте-Карло с одношаговым lookahead-оптимизатором нейронной сети (он выбирает направление поиска, просматривая последовательность весов, генерируемых другим оптимизатором). В результате lookahead-информация из самых дальних областей дерева значительно увеличивает точность обучения нейронной сети, что позволяет проводить намного более сфокусированный и безэвристический поиск.
Что не менее важно (опять же, как и в шахматах с Го), алгоритм показал, что наивысший уровень при решение интеллектуальных задач доступен не человеку и не компьютеру, а их гибридному интеллекту. Как сказал про это проф. Джейкоб Шерсон: «Это указывает на то, что мы все еще нуждаемся в человеческих навыках и опыте, и что цель будущего должна заключаться в том, чтобы понять и разработать гибридные интеллектуальные интерфейсы, которые оптимально используют сильные стороны обоих».
Статья в Nature Global optimization of quantum dynamics with AlphaZero deep exploration
#КвантовыйКомпьютинг #ИИ
Forwarded from Малоизвестное интересное
Дрон убил своего оператора, решив, что тот мешает выполнению миссии.
А чтобы не мешали другие, взорвал вышку связи.
Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
• БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.
Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).
После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.
Я же хочу обратить внимание читателей на два момента.
1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.
Будем смотреть на развитие событий в этом скандале.
2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.
И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
А чтобы не мешали другие, взорвал вышку связи.
Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
• БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.
Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).
После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.
Я же хочу обратить внимание читателей на два момента.
1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.
Будем смотреть на развитие событий в этом скандале.
2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.
И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
Royal Aeronautical Society
Highlights from the RAeS Future Combat Air & Space Capabilities Summit
What is the future of combat air and space capabilities? TIM ROBINSON FRAeS and STEPHEN BRIDGEWATER report from two days of high-level debate and discussion at the RAeS FCAS23 Summit.