Robocounsel
1.85K subscribers
218 photos
12 videos
75 files
545 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: @robocounsel_bot

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
加入频道
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ

Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).

Спецкомитету поручено выработать общие для СЕ основы регулирования разработки и применения систем искусственного интеллекта.

В рамках данной задачи Спецкомитет анонсировал и до 29 апреля 2021 г. проводит многосторонние консультации. Результаты консультаций будут учитываться в дальнейшей работе Спецкомитета.

С учётом области деятельности СЕ, фокусом работы Спецкомитета являются не технические аспекты таких систем, а возможное влияние их разработки и применения на права человека.

Ожидаемым результатом работы являются проекты таких правовых инструментов, как конвенции Совета Европы и рекомендации Комитета министров Совета Европы.

Примеры ранее принятых и обязательных для России инструментов СЕ:
- Конвенция о защите прав человека и основных свобод,
- Европейская социальная хартия,
- Конвенция о защите физических лиц при автоматизированной обработке персональных данных,
- Европейская конвенция о пресечении терроризма

Участие в консультациях открыто Советом Европы для всех институциональных участников (то есть представителям любых организаций) в индивидуальном порядке.

Однако с учётом значимости итогов консультации для российского бизнеса в целом Центр компетенций при Фонде "Сколково" проведёт совещания для обсуждения и фиксации позиции экспертов по данной теме.

Совещания пройдут:
1) 23 апреля, в пятницу, с 17 до 19 ч.
2) 27 апреля, во вторник, с 15 до 17 ч.

Для участия в совещаниях Центра компетенций
войдите в состав ТРГ 09 "Киберфизические системы".

Для подготовки к совещаниям ТРГ предлагаем использовать ресурсы СЕ и, прежде всего, исследование Спецкомитета (feasibility study).

Также в эту пятницу 16 апреля 2021 г. в 14.00 коллеги из Сбера проведут вебинар. На нём представители России в Совете Европы расскажут о деятельности Спецкомитета и о проходящих консультациях. Принять участие в вебинаре можно будет по ссылке.
Митап: право на данные для AI/ML?

Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных для машинного обучения.

Похожие предложения высказываются и применительно к праву других стран, в том числе в СНГ.

Ранее Директива ЕС 2019/790 и её предшественники уже предоставили ограниченную возможность извлекать и воспроизводить данные из различных источников для научно-исследовательских целей. Но, разумеется, новые предложения идут гораздо дальше.

Стоит ли законодателям искать компромиссы или занять более жёсткую позицию в ту или иную сторону?

Обсудим на очередном голосовом телеграм-митапе канала Robocounsel во вторник 20 апреля 2021 г., в 19:00

Участвуют: Екатерина Кирова, Светлана Поляк, Максим Балаценко, Николай Дмитрик, Алексей Мунтян, Иван Чумаков. Ведёт митап Александр Тюльканов.

UPD: аудиозапись прошедшего митапа здесь.
Нас с вами 300! Спасибо, что читаете и посещаете наши митапы, дальше будет ещё интереснее!
Robocounsel
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет). Спецкомитету поручено выработать общие для СЕ основы…
⚡️Первый проект Конвенции Совета Европы по ИИ может быть разработан уже в ближайшие месяцы

На сегодняшнем вебинаре представитель России в Совете Европы (группа LFG комитета CAHAI) Константин Косоруков обозначил, что Россия поддерживает разработку и принятие Советом Европы не рекомендаций, а обязывающего документа — всеобъемлющей конвенции по искусственному интеллекту.

Константин также высказал предположение, что первый рабочий проект Конвенции, пригодный для обсуждения и дальнейшей проработки внутри СЕ, может быть разработан уже в первом полугодии этого года.

Мария Алеева (Минэкономразвития России) напомнила слушателям вебинара и о других аспектах позиции России по предлагаемой Конвенции:
- применимость только к ИИ гражданского назначения,
- регулирование как применения ИИ, так и аспектов его разработки, включая работу с данными,
- предотвращение угроз правам человека, имея в виду существующие конвенционные права, без создания новых прав,
- обеспечение недискриминационного доступа на рынок государств-членов Конвенции разработчиков из других государств-членов,
- риск-ориентированный подход, без выделения явно и заведомо запрещённых технологий или областей применения ИИ,
- Конвенция должна быть открыта для присоединения государств, не являющихся членами Совета Европы,
- сертификация ИИ, при её необходимости, должна устанавливаться и регламентироваться на национальном, а не на наднациональном уровне.
Live stream started
Live stream finished (1 hour)
Публикуем запись митапа "Право на данные для AI/ML?"

С участием Светланы Поляк, Максима Балаценко, Николая Дмитрика, Алексея Мунтяна и Ивана Чумакова.

Обсудили Text and data mining exception, предложение М. Копа о закреплении "права на обработку данных для машинного обучения". Затронули потенциальную совместимость этого предложения с GDPR и грядущий Data Governance Act, и нужно ли нам это всё в СНГ.

А также правовые последствия построения регулирования по модели из сказок про теремок и грибочек.

https://www.youtube.com/watch?v=NKzccBQZZ8w
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act)

Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека в одном контексте влияет на его оценку в другом контексте.

Определены высокорисковые области применения ИИ и требования к процессам, системам и данным, используемым в таких областях.

В областях ограниченного или минимального риска предусмотрено, соответственно, ограниченное регулирование (в основном касающееся прозрачности взаимодействия с системой ИИ) или отсутствие регулирования.

Предусматривается процедура подтверждения соответствия систем ИИ для областей высокого риска, а также создание Европейского совета по ИИ для содействия стандартизации и введение регуляторных песочниц.

Добровольные кодексы поведения предполагаются для областей применения, не относящихся к высокорисковым.

Опубликован пресс-релиз, а также ответы на вопросы.
Robocounsel
Automation bias (automation complacency) В продолжение темы для интересующихся: есть исследования, подтверждающие феномен слепого доверия автоматизированным системам. Объясняется оно одним из присущих человеческому мышлению когнитивных искажений. Оно так…
К чему приводит склонность людей некритически полагаться на автоматизированные решения?

Алексей Мунтян рассказывает о показательном случае.

Британский Post Office 20 лет использовал ПО, из-за ошибок в котором сотрудникам регулярно вменяли несуществующие недостачи.

Почти 740 сотрудников были ошибочно привлечены к ответственности в период с 2000 по 2014 гг. Причинён огромный моральный вред. И никто не усомнился в надёжности программного обеспечения.

Что я могу сказать? Есть целый ряд исследований (пару из которых я приводил тут), подтверждающих феномен слепого доверия автоматизированным системам.

Объясняется такое доверие одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).

Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).

Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).

Какие выводы?

1. Доверяй, но проверяй. Автоматизированные решения могут и должны проверяться, хотя бы выборочно, на буллшит: ошибка может быть во входных данных, в методах и логике вычисления решения или в его интерпретации.

Для чувствительных применений доказательство надёжности автоматизированной системы должно быть предварительным условием закупки и ввода её в эксплуатацию.

2. Гражданам должны быть доступны эффективные средства правовой защиты, а организации должны критичнее относиться к своим внутренним процедурам и убедиться в том, что в них "зашита" проверка на буллшит, и что урок от Британского Post Office выучен и не повторится.
Robocounsel
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act) Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека…
Европейское регулирование ИИ изменит бизнес-процессы во всём мире и станет "вторым GDPR"

Пол Старрет из PrivacyLabs завёл подкаст и в первый же выпуск пригласил Стивена Ву (Silicon Valley Law Group) — обсуждают проект Регламента ЕС об ИИ (Artificial Intelligence Act).

Те, кто давно в теме регулирования ИИ, могут помнить Стивена по его робомитапам и работе в Комитете по науке и технологиям Американской ассоциации юристов. Он — один из ведущих практикующих юристов по "робоправу" в США.

В подкасте Стивен даёт прогноз эффекта Регламента ЕС об ИИ на американские компании (с 12 мин. 21 сек.).

Он обращает внимание на то, что при выводе продукта на множество рынков компаниям, с точки зрения экономии на масштабе, проще подчинять продукты наиболее строгим из существующих требований.

Таким образом, отмечает он, как это уже было с GDPR, европейское регулирование ИИ в значительной мере трансгранично скорректирует бизнес-процессы в США и других странах, чьи продукты нацелены на рынок ЕС, по принципу "наибольшего общего делителя" ("highest common denominator").

У компаний, конечно, остаётся опция создавать продукты, подчиняющиеся регуляторным требованиям различной степени строгости для различных рынков, но с учетом ущерба для экономии масштаба такая экзотика вряд ли будет посильна большинству разработчиков.

Подписаться на подкаст Пола можно добавив адрес его rss-ленты в любом подкаст-приложении.
"Чёрный ящик" всегда точнее?

Часто говорят, что в машинном обучении мы должны идти на компромисс между точностью и интерпретируемостью моделей. Если модель простая и понятная ("стеклянный ящик"), то она обязательно менее точная, чем сложная непонятная модель ("чёрный ящик").

Специалист по исследованию данных проф. Синтия Рудин и её академическая коллега Джоанна Рэдин в своей статье утверждают: это ложная дихотомия. Аналогия между высокоточной роборукой, ошибающейся в 2% операций и способным объяснить свои действия хирургом, ошибающимся в 15% операций — умышленно или по неосторожности вводит в заблуждение.

Авторы статьи говорят, что по опыту очень часто оказывается возможным сконструировать простой и понятный, и при этом столь же или даже более точный "стеклянный ящик". Поэтому правильно сравнивать точные "чёрные ящики" и точные "стеклянные ящики".

Возможно, для поставленной аналитической задачи даже и не пытались создать, либо не приложили достаточно ресурсов, чтобы попытаться создать точный "стеклянный ящик".

Если задача связана с повышенным риском причинения вреда значимым интересам (например, жизнь и здоровье граждан, тайна частной жизни), нужно задаться вопросом, каковы были мотивы решения не пытаться создать и применить "стеклянный ящик".

В частности, причиной могла быть простая инерция, оставшаяся со времен, когда машиннообученные модели использовались в основном для решения задач в низкорисковых областях.

Или, например, банальный узкочастный интерес — сохранить в тайне секрет работы проприетарного "чёрного ящика" без учёта возможного ущерба другим лицам.
ИИ-анализ лиц для найма на работу: полный провал

Журналисты Байрише Рундфунк решили проверить, насколько хорошо работает ИИ-система помощи в подборе персонала.

Продукт уже используют Люфтганза, БМВ и другие крупные компании.

Оказалось, что система существенно меняет оценку одного и того же человека в зависимости от наличия очков и головного убора, а также от того, каков задний фон.

Кандидат с книжными полками на заднем фоне оценивался как более открытый и прилежный, чем он же без этих полок.

Более того, на оценку кандидата влияло качество освещения.

Профессор Катарина Цвайг в этом контексте замечает: "ИИ — в целом отличный инструмент и нам следует его использовать. Но не для анализа человеческого поведения — тут возникают проблемы".

Ей вторит Джулия Энгвин, журналист, изучающий влияние технологий на общество. Она отмечает: идея о том, что черты лица могут хоть что-то сказать о ваших профессиональных качествах — научно не обоснована.
Дипфейки и GPT-3: гремучая смесь

В пятницу 21 мая в 15:00 по Москве Совет Европы проводит вебинар о том, как сочетаются технологии создания дипфейков и автоматической генерации текста. И о том, какие возможности это создаёт для создания дезинформации в промышленных масштабах.

В вебинаре участвуют Себастиан Халленслебен (Ph.D, Руководитель направления по цифровизации и ИИ, VDE e.V, Германия), Карен Мельхиор (депутат Европарламента, Дания) и Павел Гладышев (Ph.D, доцент University College, Ирландия).

Для участия пройдите по ссылке.
Автоматизированные создание и модерацию контента могут урегулировать

Конференция Министров Совета Европы, ответственных за СМИ и информационное общество, в прошлую пятницу приняла ряд резолюций.

В их числе — Резолюция о свободе выражения мнения и цифровых технологиях.

Из Резолюции следует, в частности, что профильные министры планируют выработать подходы к регулированию применения средств создания, модерации и распространения онлайн-контента с применением ИИ и цифровых технологий.

Такие подходы, исходя из Резолюции, могут включать появление независимого надзора за модерацией контента на онлайн-площадках, а также установление обязательных требований к автоматизированному созданию и распространению контента.

Также профильные министры призвали разработчиков соответствующих технологий проводить предварительную оценку их возможного воздействия на права человека и безопасность пользователей и проектировать свои продукты так, чтобы обеспечивать соблюдение таких прав.

При этом в Резолюции подчёркивается, что онлайн-платформы несут ответственность за предотвращение вреда свободе выражения мнения, в том числе путём отбора источников, злоупотребления сбором персональных данных, избыточной модерации и искажений.

Россия присоединилась к принятым резолюциям с приложением разъяснительного заявления.
ОЭСР проводит публичные консультации по классификатору систем ИИ

Эксперты организации пришли к выводу, что эффективно регулировать применение таких систем "скопом" невозможно.

Регулирование должно быть дифференцированным в зависимости от следующих факторов:
1) контекста использования системы ИИ,
2) данных и вводных,
3) свойств применяемой ИИ-модели,
4) задач и результатов.

Тщательно придерживаясь данного подхода, эксперты ОЭСР разработали четырёхфакторный классификатор систем ИИ, уделяя основное внимание простоте его использования лицами, принимающими политико-правовые решения по регулированию ИИ в различных странах.

До 30 июня 2021 года вы можете повлиять на итоговую редакцию классификатора, в том числе попробовав применить его к известной вам системе ИИ (опрос на 5-15 минут) или высказав концептуальные комментарии по тексту.

Для участия пройдите по ссылке.
ЕС, видимо, признает Великобританию "адекватной юрисдикцией" для целей передачи персональных данных

В сети появился неофициально опубликованный проект решения Еврокомиссии о признании Великобритании юрисдикцией, обеспечивающей адекватную защиту персональных данных.

Напомню, что в соответствии с Общим регламентом ЕС о защите данных (ОРЗД, GDPR) такое решение позволяет операторам из ЕС продолжить передавать персональные данные в Великобританию без дополнительных формальностей и ограничений, как если бы она продолжала оставаться в составе ЕС.

При этом решение об адекватности может быть пересмотрено, если власти Великобритании начнут существенно пересматривать своё законодательство о персональных данных, ныне унаследованное от ЕС (так называемый UK GDPR).

Предложения о таком пересмотре, вызвавшие бурную общественную дискуссию, были недавно представлены британскому премьер-министру Целевой группой по инновациям, росту и регуляторной реформе (TIGRR). Для того, чтобы лучше адаптироваться к реалиям новых технологий, включая ИИ и распределённые реестры, Группа предложила, в частности, больше опираться на британское прецедентное право и меньше ориентироваться на континентальный подход, представленный в GDPR.
Предвзятые люди, предвзятые алгоритмы?

Предвзятость ИИ (AI bias) — довольно популярная тема для дискуссий. Есть множество опасений по поводу того, насколько могут быть справедливыми решения, принимаемые информационной системой без участия человека, но в отношении человека.

Зачастую эти дискуссии проходят без единого понимания того, что считать bias (предвзятостью), все ли искажения подобного рода плохи, и как в принципе работают те системы, которые мы подозреваем в принятии предвзятых решений.

Редко в этих дискуссиях также обсуждаются когнитивные искажения, допускаемые людьми, и можно ли в принципе избежать их влияния на процесс принятия решений.

29 июня, в 17:30 по Москве на конференции по Европейскому диалогу по управлению интернетом EuroDIG 2021 при моей модерации обсудим эту тему с профильными экспертами:

Екатерина Муравлёва, Сколтех
Хироми Араи, RIKEN Center for Advanced Intelligence Project
Картикеян Рамамурти, IBM Research AI
Золтан Турбек, Совет Европы
Дэниел Лёйфер, Access Now

В нашей панели -- сразу три специалиста по машинному обучению, поэтому диалог обещает быть научно информированным и продуктивным.

Язык — английский. Участие бесплатное.
Регистрация здесь. Подробности по ссылке.