#НеделяРСМД
Сегодня в 17:00 (UTC+01) в Представительстве Россотрудничества в Варшаве представляем прогнозный доклад РСМД "Внешняя политика России: вгляд в 2018 год" http://pol.rs.gov.ru/ru/announcements/9649. С текстом доклада можно ознакомиться по ссылке http://russiancouncil.ru/activity/publications/vneshnyaya-politika-rossii-vzglyad-v-2018/
Завтра, 6 февраля, вместе с партнерами из иранского "Центра по изучению Ирана и Евразии" обсудим позиции России и Ирана на постигиловском Ближнем Востоке. Видео онлайн-конференции будет опубликовано на сайте РСМД.
Завтра же в МИА "Россия сегодня" пройдет круглый стол совместный с РСМД круглый стол "Химическое оружие в Сирии: позиция Россия и новые обвинения США" с участием Андрея Кортунова, Евгения Бужинского, члена СФ Алексей Кондратьева и экс-инспектора ООН по Ираку Антона Уткина. Трансляцию смотрите на сайте РСМД http://russiancouncil.ru/news/khimicheskoe-oruzhie-v-sirii-pozitsiya-rossiya-i-novye-obvineniya-ssha-kruglyy-stol-v-mia-rossiya-se/
9 февраля в рамках самой масштабной конференции по искусственному интеллекту (#ИИ) в России OpenTalks.AI состоится сессия «ИИ и глобальная безопасность», соорганизатором которой выступит РСМД. Выступят Андрей Кортунов, основатель Sferiq Ульви Касимов, директор дочерних фондов АО «РВК» Евгений Кузнецов, операционный директор компании GoodAI Ольга Афанасьева http://russiancouncil.ru/news/rsmd-primet-uchastie-v-konferentsii-po-iskusstvennomu-intellektu-opentalks-ai/
+ несколько анонсов публикаций:
- Продолжим исследовать состояние силовых структур на Ближнем Востоке. Серия была открыта на прошлой неделе статьей В.Косача с анализом силовых структур Саудовской Аравии http://russiancouncil.ru/analytics-and-comments/analytics/saudovskaya-araviya-silovye-struktury-v-epokhu-peremen/. На этой неделе - Египет и негосударственные формирования в Ираке и Сирии.
- Подводим итоги Давоса
- Продолжим обсуждать "Кремлевский список" и его последствия
Сегодня в 17:00 (UTC+01) в Представительстве Россотрудничества в Варшаве представляем прогнозный доклад РСМД "Внешняя политика России: вгляд в 2018 год" http://pol.rs.gov.ru/ru/announcements/9649. С текстом доклада можно ознакомиться по ссылке http://russiancouncil.ru/activity/publications/vneshnyaya-politika-rossii-vzglyad-v-2018/
Завтра, 6 февраля, вместе с партнерами из иранского "Центра по изучению Ирана и Евразии" обсудим позиции России и Ирана на постигиловском Ближнем Востоке. Видео онлайн-конференции будет опубликовано на сайте РСМД.
Завтра же в МИА "Россия сегодня" пройдет круглый стол совместный с РСМД круглый стол "Химическое оружие в Сирии: позиция Россия и новые обвинения США" с участием Андрея Кортунова, Евгения Бужинского, члена СФ Алексей Кондратьева и экс-инспектора ООН по Ираку Антона Уткина. Трансляцию смотрите на сайте РСМД http://russiancouncil.ru/news/khimicheskoe-oruzhie-v-sirii-pozitsiya-rossiya-i-novye-obvineniya-ssha-kruglyy-stol-v-mia-rossiya-se/
9 февраля в рамках самой масштабной конференции по искусственному интеллекту (#ИИ) в России OpenTalks.AI состоится сессия «ИИ и глобальная безопасность», соорганизатором которой выступит РСМД. Выступят Андрей Кортунов, основатель Sferiq Ульви Касимов, директор дочерних фондов АО «РВК» Евгений Кузнецов, операционный директор компании GoodAI Ольга Афанасьева http://russiancouncil.ru/news/rsmd-primet-uchastie-v-konferentsii-po-iskusstvennomu-intellektu-opentalks-ai/
+ несколько анонсов публикаций:
- Продолжим исследовать состояние силовых структур на Ближнем Востоке. Серия была открыта на прошлой неделе статьей В.Косача с анализом силовых структур Саудовской Аравии http://russiancouncil.ru/analytics-and-comments/analytics/saudovskaya-araviya-silovye-struktury-v-epokhu-peremen/. На этой неделе - Египет и негосударственные формирования в Ираке и Сирии.
- Подводим итоги Давоса
- Продолжим обсуждать "Кремлевский список" и его последствия
Российский центр науки и культуры в Варшаве
Презентация доклада «Внешняя политика России: взгляд в 2018 год» пройдет в Варшаве
5 февраля 2018 года Иван Тимофеев, программный директор Российского совета по международным делам, представит польскому экспертному сообществу аналитический доклад.
В докладе отражены результ...
В докладе отражены результ...
🤖 Статьей Дмитрия Шефтеловича "Искусственный интеллект: время слабых" мы открываем новый аналитический цикл, посвященный различным аспектам проблематики #ИИ.
В первом обзорном материале эксперт описывает текущее состояние, проблемы, перспективы развития этой области знания, существующие мифы и легенды, которыми тема ИИ обросла за предыдущие полвека.
Читайте, чтобы перестать бояться и полюбить искусственный интеллект. Слабый. Пока не пришел сильный. 🙄
В следующих материалах в серии: правовые и этические аспекты развития ИИ.
http://russiancouncil.ru/analytics-and-comments/analytics/iskusstvennyy-intellekt-vremya-slabykh/
В первом обзорном материале эксперт описывает текущее состояние, проблемы, перспективы развития этой области знания, существующие мифы и легенды, которыми тема ИИ обросла за предыдущие полвека.
Читайте, чтобы перестать бояться и полюбить искусственный интеллект. Слабый. Пока не пришел сильный. 🙄
В следующих материалах в серии: правовые и этические аспекты развития ИИ.
http://russiancouncil.ru/analytics-and-comments/analytics/iskusstvennyy-intellekt-vremya-slabykh/
РСМД
Искусственный интеллект: время слабых
На текущий момент под исследованиями в области искусственного интеллекта сейчас принято понимать алгоритмическое решение проблем, требующих когнитивного напряжения. Такими проблемами были игры: шахматы или Го, распознавание почерка, машинный перевод, творческая…
🤖 Две проблемы «сильного» ИИ.
Мы пока не можем доверять #ИИ принятие решений в важнейших областях — например, искусственный интеллект оказывает помощь медицинскому персоналу, только давая рекомендации, не больше. Тем не менее, исследования продвигаются в сторону «сильного ИИ», и мы стараемся разработать алгоритмы, которые позволят принимать лучшие решения и дополнять, а не просто автоматизировать человеческий интеллект. Это позволило бы нам оптимизировать научные исследования и найти им практическое применение в различных областях.
Чтобы иметь возможность решать проблемы в новых для себя сферах, «сильный» ИИ должен быть в состоянии обучаться самостоятельно, а также улучшать свои навыки обучения и решения проблем. Подобный «сильный» искусственный интеллект еще не разработан, и один из наиболее важных вопросов, который нам необходимо решить, — какие ценности будут продвигать подобные системы?
Продолжаем цикл экспертных комментариев, посвященных различным аспектам развития и внедрения технологий ИИ.
Ольга Афанасьева, операционный директор научно-исследовательской компании GoodAI, в своем эссе делится решением проблемы "правильных ценностей" ИИ - необходимо создать систему с врожденной способностью учиться постепенно.
Еще одна проблема ИИ - гонка ИИ. Когда дело доходит до разработки революционного «сильного» ИИ, способного изменить существующий баланс сил в мире, необходимо снизить вероятность сценария, в котором победитель получает все, поскольку мы не можем исключать возможность оппортунистического поведения игроков.
http://russiancouncil.ru/analytics-and-comments/columns/cybercolumn/kak-sozdat-khoroshiy-iskusstvennyy-intellekt/
Мы пока не можем доверять #ИИ принятие решений в важнейших областях — например, искусственный интеллект оказывает помощь медицинскому персоналу, только давая рекомендации, не больше. Тем не менее, исследования продвигаются в сторону «сильного ИИ», и мы стараемся разработать алгоритмы, которые позволят принимать лучшие решения и дополнять, а не просто автоматизировать человеческий интеллект. Это позволило бы нам оптимизировать научные исследования и найти им практическое применение в различных областях.
Чтобы иметь возможность решать проблемы в новых для себя сферах, «сильный» ИИ должен быть в состоянии обучаться самостоятельно, а также улучшать свои навыки обучения и решения проблем. Подобный «сильный» искусственный интеллект еще не разработан, и один из наиболее важных вопросов, который нам необходимо решить, — какие ценности будут продвигать подобные системы?
Продолжаем цикл экспертных комментариев, посвященных различным аспектам развития и внедрения технологий ИИ.
Ольга Афанасьева, операционный директор научно-исследовательской компании GoodAI, в своем эссе делится решением проблемы "правильных ценностей" ИИ - необходимо создать систему с врожденной способностью учиться постепенно.
Еще одна проблема ИИ - гонка ИИ. Когда дело доходит до разработки революционного «сильного» ИИ, способного изменить существующий баланс сил в мире, необходимо снизить вероятность сценария, в котором победитель получает все, поскольку мы не можем исключать возможность оппортунистического поведения игроков.
http://russiancouncil.ru/analytics-and-comments/columns/cybercolumn/kak-sozdat-khoroshiy-iskusstvennyy-intellekt/
russiancouncil.ru
Как создать «хороший» искусственный интеллект?
Мы пока не можем доверять ИИ принятие решений в важнейших областях — например, искусственный интеллект оказывает помощь медицинскому персоналу, только давая рекомендации, не больше. Тем не менее, исследования продвигаются в сторону «сильного ИИ», и мы стараемся…
🤖⚖️🐶 Новая статья в цикле #ИИ - Этические и правовые вопросы искусственного интеллекта.
Максим Карлюк анализирует проблемы, стоящие перед правом, в мире с растущим вовлечением автономных систем.
Современные автономные системы способны действовать независимо от создателей или операторов, но вопрос юридической ответственности пока не урегулирован.
Варианты регулирования многочисленны, в том числе на основе уже существующих норм, например, как имущество. С учетом автономности систем можно применить нормы, регулирующие особый вид имущества — животных. Однако здесь есть ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах.
Можно провести аналогию с дикими животными, тогда возникает вопрос - где грань между "домашним" и "диким" ИИ?
Распространённым предложением является применение к таким системам норм о юридических лицах. Но и в этом случае не обойтись без проблем, т.к. действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить. Действия же систем на основе ИИ не обязательно будут прямо восходить к действиям человека.
Наконец, возможно сделать программистов или пользователей автономных систем ответственными за действия ИИ, но тогда это очень серьезно замедлит развитие инноваций.
Так как же все-таки можно контролировать действия ИИ и есть ли у нас сегодня реальное юридическое основание для этих действий?
http://russiancouncil.ru/analytics-and-comments/analytics/eticheskie-i-pravovye-voprosy-iskusstvennogo-intellekta/
Максим Карлюк анализирует проблемы, стоящие перед правом, в мире с растущим вовлечением автономных систем.
Современные автономные системы способны действовать независимо от создателей или операторов, но вопрос юридической ответственности пока не урегулирован.
Варианты регулирования многочисленны, в том числе на основе уже существующих норм, например, как имущество. С учетом автономности систем можно применить нормы, регулирующие особый вид имущества — животных. Однако здесь есть ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах.
Можно провести аналогию с дикими животными, тогда возникает вопрос - где грань между "домашним" и "диким" ИИ?
Распространённым предложением является применение к таким системам норм о юридических лицах. Но и в этом случае не обойтись без проблем, т.к. действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить. Действия же систем на основе ИИ не обязательно будут прямо восходить к действиям человека.
Наконец, возможно сделать программистов или пользователей автономных систем ответственными за действия ИИ, но тогда это очень серьезно замедлит развитие инноваций.
Так как же все-таки можно контролировать действия ИИ и есть ли у нас сегодня реальное юридическое основание для этих действий?
http://russiancouncil.ru/analytics-and-comments/analytics/eticheskie-i-pravovye-voprosy-iskusstvennogo-intellekta/
🙅♂️⚡️🤖 О дивный новый мир... без работы
Вполне возможно, что большей части трудоспособного населения предстоит в обозримом будущем снова сесть за парту. Однако проблема заключается в том, что никто толком не знает, чему именно им придется учиться. По некоторым оценкам, вплоть до 85% профессий, которые будут востребованы в 2030 г., на сегодняшний день еще не существуют.
Грядущие технологические изменения полностью трансформируют рынок труда как минимум в развитых странах. В зоне риска в первую очередь находятся профессии, связанные с неквалифицированным рутинным трудом. Кроме того, по мере развития технологий искусственного интеллекта тяжелые времена ожидают и юристов, учителей, шахтеров, менеджеров среднего звена, журналистов и представителей целого ряда других профессий. Причем речь не только о фабричном труде — многомиллионная армия бюрократов и клерков также находится под угрозой сокращения в результате цифровизации. Лучшим образом подготовлены к новым условиям те, чья работа требует творческого подхода и не сводится к выполнению определенных отработанных комбинаций.
Российскую экономику трудно назвать высокотехнологичной. Значительная часть работоспособного населения занимается рутинным низкоквалифицированном трудом, при этом его производительность по-прежнему остается низкой.
Но есть и другая «мина замедленного действия» в российской экономике — отсталая промышленность и упадок отечественной инженерной школы. В то же время нельзя исключать, что в ближайшем будущем в России не будет запущена массовая программа по роботизации и внедрению технологий #ИИ. Из-за отсутствия сильного профсоюзного движения и распространенности гибридных и «серых» форм занятости #автоматизация труда может иметь в России гораздо более жесткие социальные последствия, нежели в западных странах. Причем вполне возможно, что в силу «догоняющего» характера подобной модернизации Россия будет внедрять более примитивные технологии, чем в развитых государствах.
Как спасти рядового работника? Обзор способов снижения социальных последствий - в комментарии Николая Маркоткина.
http://russiancouncil.ru/analytics-and-comments/analytics/divnyy-novyy-mir-bez-raboty/
Вполне возможно, что большей части трудоспособного населения предстоит в обозримом будущем снова сесть за парту. Однако проблема заключается в том, что никто толком не знает, чему именно им придется учиться. По некоторым оценкам, вплоть до 85% профессий, которые будут востребованы в 2030 г., на сегодняшний день еще не существуют.
Грядущие технологические изменения полностью трансформируют рынок труда как минимум в развитых странах. В зоне риска в первую очередь находятся профессии, связанные с неквалифицированным рутинным трудом. Кроме того, по мере развития технологий искусственного интеллекта тяжелые времена ожидают и юристов, учителей, шахтеров, менеджеров среднего звена, журналистов и представителей целого ряда других профессий. Причем речь не только о фабричном труде — многомиллионная армия бюрократов и клерков также находится под угрозой сокращения в результате цифровизации. Лучшим образом подготовлены к новым условиям те, чья работа требует творческого подхода и не сводится к выполнению определенных отработанных комбинаций.
Российскую экономику трудно назвать высокотехнологичной. Значительная часть работоспособного населения занимается рутинным низкоквалифицированном трудом, при этом его производительность по-прежнему остается низкой.
Но есть и другая «мина замедленного действия» в российской экономике — отсталая промышленность и упадок отечественной инженерной школы. В то же время нельзя исключать, что в ближайшем будущем в России не будет запущена массовая программа по роботизации и внедрению технологий #ИИ. Из-за отсутствия сильного профсоюзного движения и распространенности гибридных и «серых» форм занятости #автоматизация труда может иметь в России гораздо более жесткие социальные последствия, нежели в западных странах. Причем вполне возможно, что в силу «догоняющего» характера подобной модернизации Россия будет внедрять более примитивные технологии, чем в развитых государствах.
Как спасти рядового работника? Обзор способов снижения социальных последствий - в комментарии Николая Маркоткина.
http://russiancouncil.ru/analytics-and-comments/analytics/divnyy-novyy-mir-bez-raboty/
👹🤖 Продолжаем пугать проблемой #ИИ
Дмитрий Шефтелович, эксперт РСМД и один из авторов @vatfor, рассказал о дискуссиях, проходивших на конференции SIPRI, посвященной оценке влияния автономных систем и прогресса в области машинного обучения на стратегическую стабильность и риски ядерной войны.
Эксперт выделил три основных вопроса, интересующих все стороны:
Предсказуемость. Будет ли машина действовать именно так, как её запрограммировали вне зависимости от внешних данных? Тем более, если она самообучается в процессе боевых действий?
Ответственность. Кто будет отвечать за действия автономной боевой техники? Кто должен нести ответственность за неисполнение приказа или военные преступления?
Ускорение конфликта. Если реагировать и отдавать приказы будет машина, то человек не только будет отставать в скорости принятия решений, но и лишится возможности контролировать эскалацию конфликта. Вероятна ситуация, в которой локальное столкновение низкой интенсивности из-за ошибки обработки данных перерастёт в полноценные боевые действия, чего не хочет никто.
Вообще говоря, автоматы уже среди нас: они упрощают жизнь военному лётчику, обрабатывая входящую информацию, используются в беспилотниках при поиске целей, измеряют поведение по постам в «Фейсбуке» и не только, влияют на порядок выдачи в лентах новостей. Что делать с риском взлома таких систем? Не получится ли так, что поколение, выросшее со смартфонами, будет излишне доверять автомату, даже если он будет давать советы, а не принимать решения? Понравятся ли нам решения, рассчитанные машиной?
Для уменьшения рисков эксперты обсуждали следующие шаги:
1. В политической плоскости: многостороннее заявление на уровне глав государств или надгосударственных органов о том, что:
в ядерной войне победителей не будет; контроль за решением на применение оружия, в особенности ядерного, должен оставаться у человека.
2. В институциональной плоскости: меры по внедрению «здорового скепсиса» по отношению к новым технологиям. Вряд ли получится ограничить распространение идей и алгоритмов обучения, но можно задуматься об ограничении сбора и распространения сенсоров «военного» назначения и данных, требуемых для машинного обучения. Можно перенять успешный опыт контроля за химическим и биологическим оружием, не ограничивающий мирные исследования в области химии и фармацевтики.
3. На будущее: стоит озаботиться вопросом контроля за вычислительными ресурсами и увеличением взаимозависимости, в том числе и в цифровой сфере. Последнее, правда, крайне проблематично: современные компьютерные сети проектировались как системы, не отказывающие даже в случае ядерной войны.
http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/mini-konferentsiya-sipri-ii-i-risk-yadernoy-voyny/
Дмитрий Шефтелович, эксперт РСМД и один из авторов @vatfor, рассказал о дискуссиях, проходивших на конференции SIPRI, посвященной оценке влияния автономных систем и прогресса в области машинного обучения на стратегическую стабильность и риски ядерной войны.
Эксперт выделил три основных вопроса, интересующих все стороны:
Предсказуемость. Будет ли машина действовать именно так, как её запрограммировали вне зависимости от внешних данных? Тем более, если она самообучается в процессе боевых действий?
Ответственность. Кто будет отвечать за действия автономной боевой техники? Кто должен нести ответственность за неисполнение приказа или военные преступления?
Ускорение конфликта. Если реагировать и отдавать приказы будет машина, то человек не только будет отставать в скорости принятия решений, но и лишится возможности контролировать эскалацию конфликта. Вероятна ситуация, в которой локальное столкновение низкой интенсивности из-за ошибки обработки данных перерастёт в полноценные боевые действия, чего не хочет никто.
Вообще говоря, автоматы уже среди нас: они упрощают жизнь военному лётчику, обрабатывая входящую информацию, используются в беспилотниках при поиске целей, измеряют поведение по постам в «Фейсбуке» и не только, влияют на порядок выдачи в лентах новостей. Что делать с риском взлома таких систем? Не получится ли так, что поколение, выросшее со смартфонами, будет излишне доверять автомату, даже если он будет давать советы, а не принимать решения? Понравятся ли нам решения, рассчитанные машиной?
Для уменьшения рисков эксперты обсуждали следующие шаги:
1. В политической плоскости: многостороннее заявление на уровне глав государств или надгосударственных органов о том, что:
в ядерной войне победителей не будет; контроль за решением на применение оружия, в особенности ядерного, должен оставаться у человека.
2. В институциональной плоскости: меры по внедрению «здорового скепсиса» по отношению к новым технологиям. Вряд ли получится ограничить распространение идей и алгоритмов обучения, но можно задуматься об ограничении сбора и распространения сенсоров «военного» назначения и данных, требуемых для машинного обучения. Можно перенять успешный опыт контроля за химическим и биологическим оружием, не ограничивающий мирные исследования в области химии и фармацевтики.
3. На будущее: стоит озаботиться вопросом контроля за вычислительными ресурсами и увеличением взаимозависимости, в том числе и в цифровой сфере. Последнее, правда, крайне проблематично: современные компьютерные сети проектировались как системы, не отказывающие даже в случае ядерной войны.
http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/mini-konferentsiya-sipri-ii-i-risk-yadernoy-voyny/
🇺🇸🤖 Согласно докладу Startup Genome, несмотря на то, что США все еще остаются центром ИИ-индустрии, они стремительно вытесняются Китаем. В 2017 г. в Китае было создано в четыре раза больше ИИ-стартапов, чем в Штатах. Все это не может не вызывать обеспокоенности в Вашингтоне.
13 августа Дональд Трамп подписал новый вариант составленного в Конгрессе NDAA имени Джона Маккейна на 2019 фискальный год. Одними из самых обсуждаемых стали подпункты документа, предполагающие увеличение финансирования программ изучения искусственного интеллекта и технологий машинного обучения и устанавливающих их в качестве одних из главных приоритетов Министерства обороны.
О ситуации с развитием военного #ИИ в США рассказывает автор @vatfor Яков Ионин: бюджет растет, но требуется компромисс с Кремниевой долиной.
Коротко: несмотря на значительное увеличение финансирования ИИ-программ, Пентагон сталкивается с серьезным неприятием и оппозицией идее военного ИИ со стороны академического сообщества и IT-гигантов. В таких условиях Правительство в качестве компромиссной меры вынуждено привлекать во многих программах более лояльные, но менее эффективные в этой области компании.
Успех развития Соединенными Штатами военизированного искусственного интеллекта определяется прежде всего способностью достижения Пентагоном и Кремниевой долиной морально-этического компромисса. А сохранение американского военно-технического преимущества будет зависеть лишь от преодоления американским обществом внутренней поляризации.
http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/voennyy-ii-v-ssha-s-byudzhetom-no-bez-kompromissa-s-kremnievoy-dolinoy/
13 августа Дональд Трамп подписал новый вариант составленного в Конгрессе NDAA имени Джона Маккейна на 2019 фискальный год. Одними из самых обсуждаемых стали подпункты документа, предполагающие увеличение финансирования программ изучения искусственного интеллекта и технологий машинного обучения и устанавливающих их в качестве одних из главных приоритетов Министерства обороны.
О ситуации с развитием военного #ИИ в США рассказывает автор @vatfor Яков Ионин: бюджет растет, но требуется компромисс с Кремниевой долиной.
Коротко: несмотря на значительное увеличение финансирования ИИ-программ, Пентагон сталкивается с серьезным неприятием и оппозицией идее военного ИИ со стороны академического сообщества и IT-гигантов. В таких условиях Правительство в качестве компромиссной меры вынуждено привлекать во многих программах более лояльные, но менее эффективные в этой области компании.
Успех развития Соединенными Штатами военизированного искусственного интеллекта определяется прежде всего способностью достижения Пентагоном и Кремниевой долиной морально-этического компромисса. А сохранение американского военно-технического преимущества будет зависеть лишь от преодоления американским обществом внутренней поляризации.
http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/voennyy-ii-v-ssha-s-byudzhetom-no-bez-kompromissa-s-kremnievoy-dolinoy/
russiancouncil.ru
Военный ИИ в США — с бюджетом, но без компромисса с Кремниевой долиной
13 августа 2018 г. Дональд Трамп подписал новый вариант составленного в Конгрессе NDAA имени Джона Маккейна на 2019 фискальный год. Одними из самых обсуждаемых стали подпункты документа, предполагающие увеличение финансирования программ изучения искусственного…
🤖В новом тексте про #ИИ основатель проекта Aigents и архитектор проекта SingularityNET Антон Колонин рассказывает о проблемах создания сильного ИИ и угрозах искусственного интеллекта.
На угрозах не можем не остановиться подробнее😈.
Возникновение систем даже просто автономного или адаптивного, а тем более общего или сильного ИИ связывается с несколькими угрозами разного масштаба, которые актуальны уже сегодня. Среди них можно отметить:
1. Угрозу для человека может представлять интеллект не обязательно сильный, общий, человеческого или сверх-человеческого уровня, так как достаточно иметь автономную систему, оперирующую большими объемами информации с большими скоростями. На её основе могут быть созданы так называемые «автономные системы смертоносных вооружений» — Lethal Autonomous Weapons Systems (LAWS), простейший пример которых — дроны для заказных убийств, печатаемые на 3D-принтерах как в массовых масштабах, так и небольшими партиями в кустарных условиях.
2. Ситуацию, когда другое государство (потенциальный противник) получает вооружения с более адаптивным, автономным и общим искусственным интеллектом с повышенной скоростью реакции и предсказательной способностью.
3. Ситуацию, когда государства вступают в новый виток гонки вооружений, совершенствуя уровни интеллекта автономных средств поражения и уничтожения. По мнению некоторых экспертов, у такой гонки может быть два исхода — 1. гибель человечества в глобальной войне, и 2. гибель человечества в глобальной войне после порабощения ИИ сверхчеловеческого уровня. 🤷♂️
4. Создание любой, не обязательно боевой — промышленной или бытовой интеллектуальной системы с определенной степенью автономности и адаптивности, способная не только к целенаправленному действию, но и к сознательному целеполаганию, при том что автономная постановка целей системы может привести к постановке целей, противоречащих целям человека и людей, а возможностей достижения этих целей у системы будет намного больше, в силу её более высокого быстродействия, большего объема обрабатываемой информации и большей предсказательной способности.
5. Переход к новому уровню развития производственных отношений в капиталистическом (либо тоталитарном) обществе, когда более малочисленная часть населения получает возможность контролировать материальное производство, исключая из него подавляющую часть населения за счет еще большей автоматизации.
6. Автономизацию глобальных вычислительных систем обработки данных, распространения информации и принятия решений на основе глобальных сетей, поскольку скорость распространения информации в таких системах и масштаб воздействия может приводить к предсказуемым с позиций имеющегося опыта и существующих моделей управления социальным явлениям. Например, внедряемая система социального кредита в современном Китае является уникальным экспериментом цивилизационного масштаба с непонятными на сегодняшний день последствиями.
http://russiancouncil.ru/analytics-and-comments/analytics/iskusstvennyy-intellekt-blago-ili-ugroza-dlya-chelovechestva/
На угрозах не можем не остановиться подробнее😈.
Возникновение систем даже просто автономного или адаптивного, а тем более общего или сильного ИИ связывается с несколькими угрозами разного масштаба, которые актуальны уже сегодня. Среди них можно отметить:
1. Угрозу для человека может представлять интеллект не обязательно сильный, общий, человеческого или сверх-человеческого уровня, так как достаточно иметь автономную систему, оперирующую большими объемами информации с большими скоростями. На её основе могут быть созданы так называемые «автономные системы смертоносных вооружений» — Lethal Autonomous Weapons Systems (LAWS), простейший пример которых — дроны для заказных убийств, печатаемые на 3D-принтерах как в массовых масштабах, так и небольшими партиями в кустарных условиях.
2. Ситуацию, когда другое государство (потенциальный противник) получает вооружения с более адаптивным, автономным и общим искусственным интеллектом с повышенной скоростью реакции и предсказательной способностью.
3. Ситуацию, когда государства вступают в новый виток гонки вооружений, совершенствуя уровни интеллекта автономных средств поражения и уничтожения. По мнению некоторых экспертов, у такой гонки может быть два исхода — 1. гибель человечества в глобальной войне, и 2. гибель человечества в глобальной войне после порабощения ИИ сверхчеловеческого уровня. 🤷♂️
4. Создание любой, не обязательно боевой — промышленной или бытовой интеллектуальной системы с определенной степенью автономности и адаптивности, способная не только к целенаправленному действию, но и к сознательному целеполаганию, при том что автономная постановка целей системы может привести к постановке целей, противоречащих целям человека и людей, а возможностей достижения этих целей у системы будет намного больше, в силу её более высокого быстродействия, большего объема обрабатываемой информации и большей предсказательной способности.
5. Переход к новому уровню развития производственных отношений в капиталистическом (либо тоталитарном) обществе, когда более малочисленная часть населения получает возможность контролировать материальное производство, исключая из него подавляющую часть населения за счет еще большей автоматизации.
6. Автономизацию глобальных вычислительных систем обработки данных, распространения информации и принятия решений на основе глобальных сетей, поскольку скорость распространения информации в таких системах и масштаб воздействия может приводить к предсказуемым с позиций имеющегося опыта и существующих моделей управления социальным явлениям. Например, внедряемая система социального кредита в современном Китае является уникальным экспериментом цивилизационного масштаба с непонятными на сегодняшний день последствиями.
http://russiancouncil.ru/analytics-and-comments/analytics/iskusstvennyy-intellekt-blago-ili-ugroza-dlya-chelovechestva/
РСМД
Искусственный интеллект — благо или угроза для человечества?
Несмотря на множество современных достижений в нейробиологии, на сегодняшний день пока никто точно не знает, как устроен естественный интеллект. Соответственно, точно так же никто не знает, как именно создать искусственный интеллект. Существует ряд известных…
Forwarded from Ватфор | Автострадный think tank (Dimitri S)
Российский совет по международным делам опубликовал любопытную статью (https://yangx.top/russiancouncil/1762) о перспективах и угрозах, исходящих от сильного искусственного интеллекта. В двух словах, сильный ИИ — кибер-физическая система, способная решать разнообразные задачи обучения, классификации и распознавания образов без переобучения в различных контекстах. В обработке текстов, например, сильный ИИ смог бы автоматически переводить литературные произведения с английского на русский, находить в них отсылки к культурному контексту и «разумно» отвечать на вопросы о мотивации героев, а потом, после небольшого периода дообучения, проделывать то же самое с текстами на французском.
Очевидно, что создание сильного ИИ до неузнаваемости изменит отношение человека и общества к копьютерным системам. В статье Антона Колонина описываются вызовы на этом пути, головокружительные перспективы и потенциальные риски новых технологий. Выделим, на наш взгляд, ключевые предложения по снижению рисков, связанного с созданием и (в перспективе) широкой доступностью соответствующих технологий:
1. Международный запрет создания «автономных систем смертоносных вооружений» (LAWS).
2. Государственная поддержка работ в области ИИ и, в особенности, работ по решению задачи целеполагания и контроля за ИИ.
3. Расширение доступа к технологиям ИИ.
4. Международно-правовое регламентирование открытости алгоритмов ИИ, в первую очередь, чтобы сделать возможным контроль за обработкой данных и адекватный функциональный аудит принятия решений на основе машинного обучения.
В целом Ватфор готов сразу подписаться под многими из этих пунктов, но отдельные аспекты требуют более широкой и разносторонней дискуссии. К пункту 4 можно добавить, что нечто подобное уже происходит при разработке автономных автомобилей: так, существуют наработки по стандартизации функционального аудита автомобильных автопилотов. Судя по готовности компаний вроде DeepMind предоставить широкой публике тренировочные данные и готовые модели распознавания, третий пункт на данном этапе проблемой не является. Что же касается государственной поддержки, то, видимо речь идёт о грантах исследовательским группам. Это в целом благое пожелание зачастую ограничено бюджетами и длинными циклами планирования грантов, поэтому этот пункт можно дополнить пожеланием к частным компаниям активнее привлекать сотрудников исследовательских организаций к своей деятельности в виде частных грантов на научно-исследовательские работы, а к университетам — активно сотрудничать с потенциальными коммерческими партнёрами.
Но наиболее спорным можно считать первый пункт. В первую очередь, есть все основания полагать, что гонка вооружений в сфере автономных систем началась (или не останавливалась, в зависимости от перспективы). Во вторую очередь, в международно-правовых понятих очень сложно отразить понятие автономности: если понимать под автономными системами всё, что само движется к цели после запуска, то под это понятие подпадут баллистические ракеты и самонаводящиеся снаряды, а если понимать всё, что срабатывает без целеуказания, то можно сделать вид, что ничего такого нет, целеуказание-то всегда присутствует, пусть даже в форме «куда-то туда, в первую попавшуюся цель». Если же рассмотреть только этический аргумент, то можно возразить, что запретом на разработки отдаётся преимущество возможным государственным и, тем более, негосударственным нарушителям запрета, которые не будут связаны этическими и легальными нормами. Впрочем, насколько реально создать «на коленке» настоящюю боевую систему — вопрос отдельный, и он сложнее, чем кажется.
https://spectrum.ieee.org/transportation/self-driving/creating-driving-tests-for-selfdriving-cars
Очевидно, что создание сильного ИИ до неузнаваемости изменит отношение человека и общества к копьютерным системам. В статье Антона Колонина описываются вызовы на этом пути, головокружительные перспективы и потенциальные риски новых технологий. Выделим, на наш взгляд, ключевые предложения по снижению рисков, связанного с созданием и (в перспективе) широкой доступностью соответствующих технологий:
1. Международный запрет создания «автономных систем смертоносных вооружений» (LAWS).
2. Государственная поддержка работ в области ИИ и, в особенности, работ по решению задачи целеполагания и контроля за ИИ.
3. Расширение доступа к технологиям ИИ.
4. Международно-правовое регламентирование открытости алгоритмов ИИ, в первую очередь, чтобы сделать возможным контроль за обработкой данных и адекватный функциональный аудит принятия решений на основе машинного обучения.
В целом Ватфор готов сразу подписаться под многими из этих пунктов, но отдельные аспекты требуют более широкой и разносторонней дискуссии. К пункту 4 можно добавить, что нечто подобное уже происходит при разработке автономных автомобилей: так, существуют наработки по стандартизации функционального аудита автомобильных автопилотов. Судя по готовности компаний вроде DeepMind предоставить широкой публике тренировочные данные и готовые модели распознавания, третий пункт на данном этапе проблемой не является. Что же касается государственной поддержки, то, видимо речь идёт о грантах исследовательским группам. Это в целом благое пожелание зачастую ограничено бюджетами и длинными циклами планирования грантов, поэтому этот пункт можно дополнить пожеланием к частным компаниям активнее привлекать сотрудников исследовательских организаций к своей деятельности в виде частных грантов на научно-исследовательские работы, а к университетам — активно сотрудничать с потенциальными коммерческими партнёрами.
Но наиболее спорным можно считать первый пункт. В первую очередь, есть все основания полагать, что гонка вооружений в сфере автономных систем началась (или не останавливалась, в зависимости от перспективы). Во вторую очередь, в международно-правовых понятих очень сложно отразить понятие автономности: если понимать под автономными системами всё, что само движется к цели после запуска, то под это понятие подпадут баллистические ракеты и самонаводящиеся снаряды, а если понимать всё, что срабатывает без целеуказания, то можно сделать вид, что ничего такого нет, целеуказание-то всегда присутствует, пусть даже в форме «куда-то туда, в первую попавшуюся цель». Если же рассмотреть только этический аргумент, то можно возразить, что запретом на разработки отдаётся преимущество возможным государственным и, тем более, негосударственным нарушителям запрета, которые не будут связаны этическими и легальными нормами. Впрочем, насколько реально создать «на коленке» настоящюю боевую систему — вопрос отдельный, и он сложнее, чем кажется.
https://spectrum.ieee.org/transportation/self-driving/creating-driving-tests-for-selfdriving-cars
Telegram
РСМД
🤖В новом тексте про #ИИ основатель проекта Aigents и архитектор проекта SingularityNET Антон Колонин рассказывает о проблемах создания сильного ИИ и угрозах искусственного интеллекта.
На угрозах не можем не остановиться подробнее😈.
Возникновение систем…
На угрозах не можем не остановиться подробнее😈.
Возникновение систем…
🤖🔥🌐 Технологическое неравенство и раньше сильно влияло на мировую политику и экономику. Самые технологически продвинутые государства становились самыми экономически успешными, они обретали неоспоримое военное превосходство и начинали диктовать свою волю менее развитым странам.
В ХХ в. две мировые войны и немыслимое ускорение научно-технического прогресса еще более усилили это влияние. А с приближением третьей декады ХХI в. лавинообразный рост возможностей машинного обучения заставил говорить о спектре IT-технологий, объединенных метафорическим обозначением «Искусственный интеллект» (#ИИ) как о ключевом факторе экономического, геополитического и военного могущества ближайших десятилетий.
2018 год стал переломным. Ранее основное внимание СМИ, общества и политиков при обсуждении будущих угроз и вызовов развития ИИ было направлено на:
— грядущее вытеснение людей из многих профессий когнитивными агентами ИИ (роботами и программами);
— правовые и этические проблемы автономных ИИ-устройств (например, беспилотных авто);
— проблемы кибербезопасности;
— пугающе манящую перспективу то ли далекого, то ли не очень «бунта машин».
Однако в 2018 г. всё вдруг начало меняться. Перечисленные выше угрозы и вызовы не то чтобы исчезли, но потускнели на фоне происходящего осознания политиками и военными двух глобальных трансформационных трендов, которые можно условно назвать:
— ИИ-национализм
— ИИ-национализация
Сергей Карелов, основатель и Chief Technology Officer компании Witology, автор канала @theworldisnoteasy, в лонгриде для РСМД подробно описал тренды, сформулировал техно-геополитический прогноз
http://russiancouncil.ru/ai
Главными факторами международных отношений станут:
— ИИ-неоколониализм во взаимоотношениях стран-лидеров и стран-аутсайдеров в ИИ-технологиях;
— Гонка ИИ-вооружений между странами-лидерами, определяющая и направляющая дальнейшее развитие ИИ-технологий.
У такой гонки возможны 2 варианта окончания:
A. Вариант «Большая война», в результате которой следующая война будет вестись уже камнями и палками.
B. Вариант «AI Сингулярность» (или «приход лесника»), при котором все ускоряемое гонкой вооружений развитие ИИ-технологий породит «сильный» ИИ, а тот поступит как лесник в анекдоте, устранивший обе соперничающие стороны за ненадобностью.
Первый вариант, как считает эксперт, видится куда более вероятным. 🤷♂️
В ХХ в. две мировые войны и немыслимое ускорение научно-технического прогресса еще более усилили это влияние. А с приближением третьей декады ХХI в. лавинообразный рост возможностей машинного обучения заставил говорить о спектре IT-технологий, объединенных метафорическим обозначением «Искусственный интеллект» (#ИИ) как о ключевом факторе экономического, геополитического и военного могущества ближайших десятилетий.
2018 год стал переломным. Ранее основное внимание СМИ, общества и политиков при обсуждении будущих угроз и вызовов развития ИИ было направлено на:
— грядущее вытеснение людей из многих профессий когнитивными агентами ИИ (роботами и программами);
— правовые и этические проблемы автономных ИИ-устройств (например, беспилотных авто);
— проблемы кибербезопасности;
— пугающе манящую перспективу то ли далекого, то ли не очень «бунта машин».
Однако в 2018 г. всё вдруг начало меняться. Перечисленные выше угрозы и вызовы не то чтобы исчезли, но потускнели на фоне происходящего осознания политиками и военными двух глобальных трансформационных трендов, которые можно условно назвать:
— ИИ-национализм
— ИИ-национализация
Сергей Карелов, основатель и Chief Technology Officer компании Witology, автор канала @theworldisnoteasy, в лонгриде для РСМД подробно описал тренды, сформулировал техно-геополитический прогноз
http://russiancouncil.ru/ai
Главными факторами международных отношений станут:
— ИИ-неоколониализм во взаимоотношениях стран-лидеров и стран-аутсайдеров в ИИ-технологиях;
— Гонка ИИ-вооружений между странами-лидерами, определяющая и направляющая дальнейшее развитие ИИ-технологий.
У такой гонки возможны 2 варианта окончания:
A. Вариант «Большая война», в результате которой следующая война будет вестись уже камнями и палками.
B. Вариант «AI Сингулярность» (или «приход лесника»), при котором все ускоряемое гонкой вооружений развитие ИИ-технологий породит «сильный» ИИ, а тот поступит как лесник в анекдоте, устранивший обе соперничающие стороны за ненадобностью.
Первый вариант, как считает эксперт, видится куда более вероятным. 🤷♂️
russiancouncil.ru
Впереди ИИ-национализм и ИИ-национализация
Проект РСМД о трендах в развитии технологий искусственного интеллекта
Forwarded from Малоизвестное интересное
Не прочесть этот лучший за последний год лонгрид о влиянии связки «ИИ – Геополитика – Экономика» на судьбы мира, - будет большой ошибкой. Уровень проникновения в тему и точность вИдения ближайшего будущего – беспрецедентны для СМИ (эссе выйдет в ноябрьском журнале WIRED).
Ну а пока вы его еще не прочли, желающие могут прочесть мой резюме http://bit.ly/2AACEdW
#ИИ #БольшаяВойна #Геополитика
Ну а пока вы его еще не прочли, желающие могут прочесть мой резюме http://bit.ly/2AACEdW
#ИИ #БольшаяВойна #Геополитика
WIRED
The AI Cold War That Threatens Us All
Artificial intelligence could be the ultimate authoritarian tool. But one thing's for sure: Charging into an AI arms race against China is a huge mistake.
Набор демиурга (или 😈?): социальные сети, репутационные системы и искусственный интеллект.
Продолжаем пугать #ИИ. Антон Колонин рассказывает о новых угрозах и возможностях в области управления общественными процессами с применением современных сетевых технологий, концепции текучей дипломатии и систем искусственного интеллекта.
Сейчас всего несколько глобальных информационных сетей объединяют не менее половины всего человечества, где каждый индивидуум оказывается одновременно и живым сенсором, непрерывно передающим в сеть информацию о своем состоянии, и актором, способным воздействовать на окружающую среду в соответствии с теми мотивациями, которые он получает из сети. Формируется ситуация, в которой отдельно взятый человек оказывается не в состоянии контролировать и даже осознавать смысл и значимость всех информационных потоков и процессов, в которые он оказывается вовлечен.
Примечательно, что возможность фактического контроля за прохождением сигналов и анализа смыслов этих сигналов, выявления исполняемых программ, а также формирования подобных программ потенциально сохраняется у ограниченного контингента людей, контролирующих сами системы обработки информации, будь то бизнес-структуры в случае сетей в юрисдикции США или государственные структуры в КНР.
В этом смысле чрезвычайно интересен опыт КНР с ее тотально контролируемой государством социальной сетью и выстраиваемой на её основе репутационной системы «социального кредита», заслуживающей пока противоречивые комментарии. Долгосрочные итоги этого эксперимента можно будет проводить не раньше, чем через одну смену поколений, однако имеющиеся оценки указывают как на рост безопасности и социальной стабильности, так и на возможные пагубные последствия тоталитаризации жизни общества при сохранении возможности манипуляции самой системой и низовыми участниками, и контролирующими её структурами.
Сложность ситуации усугубляется появлением новых сил, ранее неизвестных человечеству — систем искусственного интеллекта (ИИ). Системы машинного обучения при всем их несовершенстве способны выполнять простейшие интеллектуальные задачи вроде распознавания известных объектов или навигации по предопределенным маршрутам гораздо быстрее и надежнее человека. Уже сейчас есть примеры успешного предсказания действий человека, которые успешно применяются при прогнозировании спроса в бизнесе и могут использоваться для предотвращения нарушений в правоохранительной сфере. Однако возможность предсказания поведения дает и возможность управлять им, что также уже используется и в бизнесе.
Учитывая экспоненциальный рост возможностей вычислительных систем и ресурсов, вкладываемых ведущими корпорациями (Amazon, Google, Baidu, Tencent, Alibaba, Apple, Microsoft) и государствами (США, Китай) в совершенствование систем искусственного интеллекта, их управляющая роль в жизни и развитии общества будет неуклонно расти. В лучшем случае в краткосрочной перспективе бенефициарами этого процесса станут бизнес-предприятия, управляющие соответствующими сетевыми платформами, их руководители и акционеры, а также государства, с которыми эти предприятия аффилированы. В худшем случае в долгосрочной перспективе выход интеллектуальных систем управления из-под контроля социума может представлять угрозу существования человеческому обществу в том виде, в котором мы видим его сейчас.
Эксперт предлагает несколько направлений для обеспечения безопасности сетевых систем с ИИ:
1. Полная деанонимизация систем искусственного интеллекта
2. Открытость кода ИИ-систем и протоколов их взаимодействий
3. Доступность ИИ-систем для массового конечного пользователя (а не только для крупных корпораций и государств).
Кто знает, возможно, после окончательного демонтажа комплекса соглашений о ядерном разоружении, именно обозначенные выше вопросы лягут в основу нового подхода к стратегической стабильности.
http://russiancouncil.ru/analytics-and-comments/analytics/kollektivnyy-intellekt-budushchee-chelovechestva-ili-gibel-lichnosti/
Продолжаем пугать #ИИ. Антон Колонин рассказывает о новых угрозах и возможностях в области управления общественными процессами с применением современных сетевых технологий, концепции текучей дипломатии и систем искусственного интеллекта.
Сейчас всего несколько глобальных информационных сетей объединяют не менее половины всего человечества, где каждый индивидуум оказывается одновременно и живым сенсором, непрерывно передающим в сеть информацию о своем состоянии, и актором, способным воздействовать на окружающую среду в соответствии с теми мотивациями, которые он получает из сети. Формируется ситуация, в которой отдельно взятый человек оказывается не в состоянии контролировать и даже осознавать смысл и значимость всех информационных потоков и процессов, в которые он оказывается вовлечен.
Примечательно, что возможность фактического контроля за прохождением сигналов и анализа смыслов этих сигналов, выявления исполняемых программ, а также формирования подобных программ потенциально сохраняется у ограниченного контингента людей, контролирующих сами системы обработки информации, будь то бизнес-структуры в случае сетей в юрисдикции США или государственные структуры в КНР.
В этом смысле чрезвычайно интересен опыт КНР с ее тотально контролируемой государством социальной сетью и выстраиваемой на её основе репутационной системы «социального кредита», заслуживающей пока противоречивые комментарии. Долгосрочные итоги этого эксперимента можно будет проводить не раньше, чем через одну смену поколений, однако имеющиеся оценки указывают как на рост безопасности и социальной стабильности, так и на возможные пагубные последствия тоталитаризации жизни общества при сохранении возможности манипуляции самой системой и низовыми участниками, и контролирующими её структурами.
Сложность ситуации усугубляется появлением новых сил, ранее неизвестных человечеству — систем искусственного интеллекта (ИИ). Системы машинного обучения при всем их несовершенстве способны выполнять простейшие интеллектуальные задачи вроде распознавания известных объектов или навигации по предопределенным маршрутам гораздо быстрее и надежнее человека. Уже сейчас есть примеры успешного предсказания действий человека, которые успешно применяются при прогнозировании спроса в бизнесе и могут использоваться для предотвращения нарушений в правоохранительной сфере. Однако возможность предсказания поведения дает и возможность управлять им, что также уже используется и в бизнесе.
Учитывая экспоненциальный рост возможностей вычислительных систем и ресурсов, вкладываемых ведущими корпорациями (Amazon, Google, Baidu, Tencent, Alibaba, Apple, Microsoft) и государствами (США, Китай) в совершенствование систем искусственного интеллекта, их управляющая роль в жизни и развитии общества будет неуклонно расти. В лучшем случае в краткосрочной перспективе бенефициарами этого процесса станут бизнес-предприятия, управляющие соответствующими сетевыми платформами, их руководители и акционеры, а также государства, с которыми эти предприятия аффилированы. В худшем случае в долгосрочной перспективе выход интеллектуальных систем управления из-под контроля социума может представлять угрозу существования человеческому обществу в том виде, в котором мы видим его сейчас.
Эксперт предлагает несколько направлений для обеспечения безопасности сетевых систем с ИИ:
1. Полная деанонимизация систем искусственного интеллекта
2. Открытость кода ИИ-систем и протоколов их взаимодействий
3. Доступность ИИ-систем для массового конечного пользователя (а не только для крупных корпораций и государств).
Кто знает, возможно, после окончательного демонтажа комплекса соглашений о ядерном разоружении, именно обозначенные выше вопросы лягут в основу нового подхода к стратегической стабильности.
http://russiancouncil.ru/analytics-and-comments/analytics/kollektivnyy-intellekt-budushchee-chelovechestva-ili-gibel-lichnosti/
РСМД
Коллективный интеллект — будущее человечества или гибель личности?
Сейчас всего несколько глобальных информационных сетей объединяют не менее половины всего человечества, где каждый индивидуум оказывается одновременно и живым сенсором, непрерывно передающим в сеть информацию о своем состоянии, и актором, способным воздействовать…
🤖🌐 Международным и социальным последствиям использования технологий искусственного интеллекта (#ИИ) посвящена новая рабочая тетрадь РСМД
В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Издание включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Авторы: Сергей Карелов, Максим Карлюк, Антон Колонин, Николай Маркоткин и Дмитрий Шефтелович.
Электронная версия издания http://russiancouncil.ru/paper44
Сегодня же в РСМД состоялась одноименная конференция, в которой приняли участие ведущие эксперты в области ИИ и смежных дисциплин, международной безопасности, философы, юристы и социологи. Видео всех сессий конференции https://www.youtube.com/watch?v=jG1IS6G7uTo&feature=youtu.be&t=138&list=PLVsJ4XAR8N3dnw37VbxAi8kRdE_DpH3pB
В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Издание включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Авторы: Сергей Карелов, Максим Карлюк, Антон Колонин, Николай Маркоткин и Дмитрий Шефтелович.
Электронная версия издания http://russiancouncil.ru/paper44
Сегодня же в РСМД состоялась одноименная конференция, в которой приняли участие ведущие эксперты в области ИИ и смежных дисциплин, международной безопасности, философы, юристы и социологи. Видео всех сессий конференции https://www.youtube.com/watch?v=jG1IS6G7uTo&feature=youtu.be&t=138&list=PLVsJ4XAR8N3dnw37VbxAi8kRdE_DpH3pB
YouTube
Конференция по последствиям использования технологий ИИ. Открытие и Сессия 1
Российский совет по международным делам (РСМД) проводит 6 ноября 2018 г. в Москве конференцию «Международные и социальные последствия использования технологи...