HCAI // Регулирование ИИ
1.21K subscribers
177 photos
1 video
14 files
422 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
加入频道
📧 На сайте некоммерческой организации Future of Life опубликовано открытое письмо с призывом о приостановке экспериментов по развитию мощного ИИ.

Авторы письма обращаются ко всем лабораториям ИИ с просьбой приостановить работу по развитию систем ИИ, более мощных, чем GPT-4, как минимум на ближайшие 6 месяцев.

Такая пауза в разработке, по мнению авторов, должна быть общепринятой разработчиками. Кроме того, в ее установлении должны участвовать все ключевые игроки рынка ИИ. Если такую ​​паузу не удасться установить в короткий срок, предполагается, что будет необходимым вмешательство со стороны правительств - по введению соответствующего моратория.

Данная пауза должна быть использована разработчиками для создания и внедрения общих протоколов безопасности по проектированию и разработке систем ИИ, обновления политик и учреждения регулирующих органов по вопросам ИИ.

Лидеры в области технологий ИИ опасаются неконтролируемого влияния мощного ИИ на человека и общество в целом. В письме утверждается, что мощные системы ИИ следует разрабатывать только тогда, когда мы будем уверены в том, что их влияние на общество будет положительным, а риски управляемыми.

🌱 Стоит отметить, что вопросы, поднятые авторами письма, относится к этическому регулированию ИИ.

Например:

"Должны ли мы позволять машинам заполнять наши информационный поток пропагандой и неправдой?"
или "Должны ли мы развивать нечеловеческий ум, который в конечном итоге может превзойти людей численностью, а также перехитрить и заменить нас?"

🔔 Обеспокоенность технологических лидеров подобными вопросами подчеркивает важность внедрения и следования принципам этики ИИ как на локальном уровне конкретных организаций, так и на уровне государств и международных организаций.

✏️ В настоящий момент письмо подписали более 1100 представителей ранка технологий.
🌏Сбер, ДВФУ и Ханойский государственный университет договорились о сотрудничестве в сфере искусственного интеллекта и открытии совместного центра ИИ во Вьетнаме. Подробности здесь
🗓 18 апреля на площадке НИУ ВШЭ состоится круглый стол на тему «Вопросы правового регулирования и применения нейросетевых технологий».

🎓 Организаторами мероприятия выступили Общественная палата РФ и НИУ ВШЭ.

💬 Мероприятие объединит представителей различных заинтересованных сторон: от государства до бизнеса и разработчиков, которые обсудят:

🔘уровень, возможности и перспективы развития генеративных моделей, включая большие языковые модели типа СhatGPT, в различных сферах деятельности
🔘потенциальные угрозы и риски внедрения нейросетевых технологий
🔘правовые и этические аспекты новых технологий

💻 Во время проведения круглого стола будет доступна онлайн-трансляция мероприятия, ссылкой на которую мы поделимся позже
Сбер совместно с Томским государственным университетом (ТГУ) открыли первый Центр искусственного интеллекта (ИИ) в Сибирском регионе в рамках форума молодых ученых U-NOVUS 2023.

В церемонии открытия приняли участие сенатор РФ от Томской области Виктор Кресс, заместитель министра науки и высшего образования РФ Дарья Кирьянова, губернатор Томской области Владимир Мазур, председатель Сибирского Сбербанка Дмитрий Солнцев, управляющий директор Центра регулирования ИИ Сбербанка Андрей Незнамов и ректор Томского государственного университета Эдуард Галажинский.
📆 Анонс. На полях Евразийского экономического форума состоится сессия «Этика и регулирование ИИ на пространстве ЕАЭС».
 
🟢 Участники дискуссии обсудят:
 
🟢 Какие этико-правовые вопросы возникают при использовании контента, сгенерированного ИИ?

🟢 Какие меры необходимо принимать разработчикам или государству, чтобы пользователи относились к новым технологиям, особенно к ИИ, с большим доверием и желанием применять данные технологии в своей повседневной жизни?

🟢 Мировые тенденции регулирования ИИ

🟢 Насколько эффективны инструменты мягкого права в вопросах регулирования этики ИИ? И какие принципы этики ИИ считаются наиболее значимыми в странах ЕАЭС?
 
Модератором сессии выступит управляющий директор Центра регулирования ИИ ПАО Сбербанк, Председатель российской Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.
 
Когда: 25 мая 2023 г. в 11:00 (мск)
🗺️ Где: Новый Арбат, 36, Олимп Холл, 1-й этаж, зал № 3
 
❗️Для участия в мероприятии необходимо пройти регистрацию на сайте Евразийского экономического форума.
❗️Завтра в 10:45 (мск) на полях Евразийского экономического форума состоится сессия «Этика и регулирование искусственного интеллекта на пространстве ЕАЭС», посвященная обсуждению вопросов гармонизации подходов стран ЕАЭС к регулированию и этике ИИ (Олимп Холл, 1-й этаж, зал № 3).

Спикеры:
🇰🇬 Индира Шаршенова, Заместитель Министра цифрового развития Кыргызской Республики;
🇦🇲 Авет Погосян, Заместитель Министра высокотехнологической промышленности Республики Армения;
🇰🇿 Назгуль Бажаева, Директор департамента цифровой трансформации Министерства цифрового развития, инноваций и аэрокосмической промышленности Республики Казахстан;
🇷🇺 Элина Сидоренко, Директор, Центр цифровой экономики и финансовых инноваций, МГИМО МИД России, генеральный директор, АНО «Платформа ЗаБизнес.РФ»;
🇺🇿 Азиз Атабеков, Директор, Научно-исследовательский институт по развитию цифровых технологий и искусственного интеллекта Республики Узбекистан;
🇧🇾 Сергей Кругликов, Генеральный директор, Объединенный институт проблем информатики Национальной академии наук Беларуси.
🇷🇺 Модератором сессии выступит Андрей Незнамов, Управляющий директор – начальник центра регулирования AI, ПАО Сбербанк.

📺 Трансляция мероприятия будет доступна на сайте Евразийского экономического форума.
⚡️Это очень важное событие в битве за авторские права ИИ — создан первый прецедент в Японии

Япония заявила, что не будет обеспечивать соблюдение авторских прав на данные, используемые при обучении ИИ.

Тем самым, регулятор страны позволяет использовать любые данные независимо от того, предназначены они для некоммерческих или коммерческих целей.

https://yangx.top/alwebbci/1040
Национальный центр развития искусственного интеллекта при Правительстве РФ совместно с Институтом права цифровой среды НИУ ВШЭ и Центром регулирования ИИ Сбера проводят опрос российских организаций для выявления регуляторных требований и норм, препятствующих внедрению технологий ИИ в отраслях экономики и социальной сферы.   
    
Приглашаем принять участие в опросе до 31 июля 2023 г.: https://aicentre.hse.ru/polls/841504581.html   
Анкета состоит из 9 вопросов, на её заполнение уйдет не больше 15 минут.   
    
Ваши ответы позволят объективно оценить эффективность действующей государственной политики в сфере регулирования технологий ИИ, а также сформировать для профильных органов государственной власти перечень мер по устранению существующих барьеров в законодательстве.    
    
Справочно. Опрос проводится во исполнение Перечня поручений Президента РФ по итогам конференции «Путешествие в мир искусственного интеллекта» (от 29 января 2023 г. № Пр-172).
📆 5 июля состоялось общее собрание уполномоченных по этике в сфере искусственного интеллекта (ИИ).

Уполномоченные образуют масштабное сообщество участников рынка ИИ из числа подписантов Кодекса этики в сфере ИИ.

В ходе собрания были представлены результаты работы Комиссии по реализации Кодекса и четырех рабочих групп:

• по разработке и мониторингу методики оценки рисков и гуманитарного воздействия систем ИИ
• по созданию свода наилучших практик решения возникающих этических вопросов в жизненном цикле ИИ
• по оценке эффективности реализации Кодекса
• по рекомендательным сервисам

Кроме того, были избраны новые члены Комиссии и создана новая рабочая, посвященная этике ИИ в медицинской сфере.

В настоящее время к Кодексу присоедилились более 180 подписантов: представители разработчиков, бизнеса, образовательных организаций, НКО и государственных органов.

🔗 Присоединиться к Кодексу можно путем подписания заявления на сайте: https://ethics.a-ai.ru/
🌍 Компании из 15 зарубежных стран присоединились к Кодексу этики в сфере ИИ

🫱🏻‍🫲🏾 На полях форума Россия-Африка прошел первый масштабный раунд присоединения иностранных компаний к Кодексу этики. Так участникам Кодекса стали компании из ЮАР, Нигерии, Кении, Замбии, Сенегала, Уганды, Буркина-Фасо, Ганы, Мозамбика, Мали, а также Кипра и Израиля.

Это важный шаг в формировании ответственного и безопасного развития и внедрения технологий искусственного интеллекта. Глобализация принципов этики ИИ способствует обеспечению надежного цифрового будущего во всем мире.
📝 Комиссия по реализации Кодекса этики в сфере ИИ выпустила первую версию Рекомендации, посвященную решению «проблемы вагонетки».

🚘 Рабочая группа по созданию свода наилучших практик решения вопросов, возникающих этических в жизненном цикле ИИ, под руководством Елены Сурагиной (МТС) и Александра Крайнова (Яндекс) разработала рекомендательный документ, содержащий решение вопроса «проблемы вагонетки». Опубликованная версия Рекомендации содержит ответы на вопросы о допустимости включения в систему ИИ этического выбора о причинении вреда людям, а также о профессиональном и моральном выборе разработчика.

🗳 По итогам голосования подписантов Кодекса этики в сфере ИИ было принято решение о доработке текущей версии Рекомендации и проведении более подробного исследования по поставленному вопросу.

👋🏻 Если вы обладаете компетенциями в сфере беспилотных автомобилей и хотите поучаствовать в исследовании, можно связаться с представителями Альянса в сфере ИИ по e-mail: [email protected]
19 сентября Комиссия по реализации Кодекса этики в сфере ИИ выпустила Этические рекомендации по применению рекомендательных технологий и алгоритмов, основанных на искусственном интеллекте, в цифровых сервисах.
 
Рабочая группа по рекомендательным сервисам под руководством Андрея Рего (МТС) и Алексей Бырдина (Ассоциация «Интернет-видео») разработала рекомендательный документ, призванный систематизировать этичную практику и обобщить подходы, допустимые и рекомендуемые к применению при разработке и настройке рекомендательных алгоритмов, а также при внедрении и эксплуатации функционала персонализированных рекомендаций в цифровых сервисах различного типа.
Рекомендации предлагаются для добровольного исполнения компаниями, использующими рекомендательные системы в цифровых сервисах.
Forwarded from Горелкин
В пресс-центре ТАСС сегодня обсуждали новые подходы к регулированию искусственного интеллекта. Мой закон о рекомендательных сервисах – яркий пример так называемого «гибридного подхода», когда законодатель четко обозначает рамки, при этом оставляя большое поле для саморегулирования. В случае с рекомендациями мы предусмотрели две ключевые обязанности: предупреждать людей о том, что сервис использует рекомендательную модель, и описывать правила её работы. Как сформулировать эти правила, мы осознанно не говорим: владельцы ресурсов должны сделать это, исходя из собственных этических представлений.

Например, компания «Яндекс», насколько мне известно, собирается выкатить два варианта: подробный юридически выверенный текст плюс упрощенное объяснение в формате карточек. Надеюсь, что другие компании тоже пойдут по пути человеколюбия и максимально доступно сформулируют правила работы своих рексервисов. На данный момент, правда, никто этого не сделал – видимо, отрасль ждет, когда необходимые разъяснения опубликует РКН (притом что до вступления закона в силу остается всего две недели).

Поэтому самое время воспользоваться теми возможностями, которые дает гибридное регулирование, и взять на вооружение документ, подготовленный Альянсом в сфере искусственного интеллекта. Это свод этических правил по применению рекомендательных сервисов (или, как сегодня кто-то скаламбурил, «рекомендации по рекомендациям»). Они отлично дополняют букву закона необходимой терминологией, перечнем добровольных обязанностей и принципов прозрачности. Очень надеюсь, что наличие этого свода исключит необходимость вводить административку, о которой журналисты спросили сегодня первым делом.
📆 10 октября в 16:00 состоится заседание секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации по теме этики и регулирования использования технологий синтеза голоса.

Участники мероприятия обсудят:
🟢 этические и правовые риски использования технологий синтеза голоса
🟢 возможные подходы к законодательному регулированию особенностей создания и применения технологий синтеза голоса
🟢 отдельные особенности охраны прав на результаты интеллектуальной деятельности, созданные с применением ИИ

К участию в дискуссии приглашены представители Минэкономразвития России, Роспатента, Союза дикторов, Комиссии по реализации Кодекса этики в сфере ИИ, компаний Яндекс, МТС,  издательств ЛитРес, Эксмо, юристы, специализирующие на вопросах интеллектуальной собственности.

Трансляция заседания будет доступна на сайте Совета Федерации.
В число новых участников кодекса этики в сфере искусственного интеллекта вошли шесть региональных органов государственной власти по IT и связи из следующих регионов: Тюменская область, Ханты-Мансийский автономный округ – Югра, Ямало-Ненецкий АО, Курганская, Калужская и Иркутская области.
📃🇺🇸30 октября Президент США подписал Указ о безопасной разработке и использовании искусственного интеллекта. Документ определяет стандарты защиты американцев от потенциальных рисков ИИ.

Что закрепляет Указ:
· разработчики самых мощных систем ИИ должны будут делиться результатами своих проверок на безопасность с Правительством США;
· должны быть разработаны стандарты, инструменты и тесты, которые помогут гарантировать, что системы искусственного интеллекта безопасны и заслуживают доверия;
· должны быть разработаны строгие требования для применения ИИ в рамках скрининга биологического синтеза при создании опасных биологических материалов;
· для защиты американцев от мошенничества с использованием ИИ должны быть установлены стандарты и использованы наилучшие практики для обнаружения контента, созданного с помощью ИИ, и аутентификации официального контента;
· должна быть выстроена лучшая программа кибербезопасности для поиска и устранения уязвимостей в критически важном ПО (в том числе в системах ИИ);
· Советом национальной безопасности и Руководителем аппарата Белого дома должен быть разработан Меморандум о национальной безопасности, который определит дальнейшие действия в области ИИ и безопасности.

Также в Указе отмечается важность:
· усиления конфиденциальности данных американцев при взаимодействии с ИИ;
· продвижения равенства и защиты гражданских прав;
· отстаивания интересов потребителей, пациентов и студентов;
· поддержки рабочего класса;
· содействия развитию инноваций и конкуренции;
· усиления американского влияния и лидерства за рубежом;
· обеспечения ответственного и эффективного использования ИИ Правительством.
Хиросимские_Руководящие_принципы_ИИ.pdf
512.7 KB
🌍 В рамках инициативы G7 «Хиросимский процесс искусственного интеллекта» (Hiroshima AI Process) разработаны 11 руководящих принципов и Кодекс поведения для разрабатывающих передовые системы ИИ организаций.

🟢 Документы разработаны в ответ на развитие передовых систем ИИ (Advanced AI Systems) – фундаментальных моделей и генеративного ИИ.

🟢 Документы будут актуализироваться по мере необходимости и содержат неисчерпывающий перечень действий.

🟢 Среди прочего рекомендуется проводить выявление рисков в моделях с использованием имитации реальных кибератак (red teaming), а также внедрить механизмы идентификации созданного ИИ контента и определения его происхождения.

Делимся подготовленным Центром регулирования ИИ переводом документов на русский язык.