Robocounsel
1.85K subscribers
217 photos
11 videos
74 files
538 links
О регулировании и социальных аспектах применения робототехники, ИИ, данных и электронной коммерции. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: @robocounsel_bot

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
加入频道
Искусственный интеллект и этика на RIGF

07.04 с 13:50 до 15:20
выступаю в секции по искусственному интеллекту и этике на Российском форуме по управлению интернетом.

Также участвуют:
- Эльза Ганеева, Microsoft
- Андрей Игнатьев, Центр Глобальной ИТ-Кооперации, МГИМО
- Ян Клейссен, Совет Европы
- Андрей Незнамов, Сбербанк
- Андрей Кулешов, МФТИ
- Максим Федоров, Сколковский институт науки и технологий

Модераторы: Карен Казарян, РАЭК, Анна Абрамова, МГИМО

Примечательно, что форум пройдёт в гибридном формате, а именно — все уставшие от онлайн-мероприятий приглашаются в Экспоцентр (Краснопресненская набережная, 14).

Регистрируйтесь здесь.
Kop_2021_The_Right_to_Process_Data_for_Machine_Learning_Purposes.pdf
318.2 KB
Право на обработку данных?

Kop M, ‘The Right to Process Data for Machine Learning Purposes in the EU’ (2021) 34 Harvard Journal of Law & Technology 1

Сегодня увидел у автора в Линкдине данную статью. Абстракт заинтересовал.

В статье приводятся аргументы в пользу закрепления в праве ЕС sui generis права на обработку данных для целей развития ИИ.

Всё это приурочено к планируемому принятию в ЕС Data Governance Act.

При этом автор выступает за довольно радикальную доработку этого документа. И, в частности, за исключение или существенное ограничение прав на данные в составе наборов данных, предназначенных для машинного обучения.

Конечный вывод — Евросоюзу не стоит слушать бизнес и искать компромисы, а стоит твёрдо и смело проводить политику, которую предпочитает автор.

Доводы, приводимые автором в защиту своих тезисов, кажутся довольно слабо проработанными. Контраргументы самому себе — нарочито не детализированными.

Возможно, вы иного мнения? Обсудим в комментариях.
Начало RIGF уже скоро. А на заднем плане Самизнаетекто. В этом топике будут комментарии по ходу мероприятия.
Немного пятничного

Данные - новая нефть, говорите? Но всё новое - хорошо забытое старое:

Не прячьте ваши данные по банкам и углам.
Несите ваши данные, иначе быть беде.
И в полночь ваши данные заройте в землю там.
И в полночь ваши данные заройте в землю где? -

Припев:
Не горы не овраги и не лес,
Не океан без дна и берегов,
А поле, поле, поле, поле чудес,
Поле чудес, в стране дураков.
Крекс-пекс-фекс..

Полейте хорошенечко, советуем мы вам.
И вырастут ветвистые стартапы в темноте.
И вместо листьев денежки засеребрятся там.
И вместо листьев денежки зазолотятся где? -

Припев.
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ

Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).

Спецкомитету поручено выработать общие для СЕ основы регулирования разработки и применения систем искусственного интеллекта.

В рамках данной задачи Спецкомитет анонсировал и до 29 апреля 2021 г. проводит многосторонние консультации. Результаты консультаций будут учитываться в дальнейшей работе Спецкомитета.

С учётом области деятельности СЕ, фокусом работы Спецкомитета являются не технические аспекты таких систем, а возможное влияние их разработки и применения на права человека.

Ожидаемым результатом работы являются проекты таких правовых инструментов, как конвенции Совета Европы и рекомендации Комитета министров Совета Европы.

Примеры ранее принятых и обязательных для России инструментов СЕ:
- Конвенция о защите прав человека и основных свобод,
- Европейская социальная хартия,
- Конвенция о защите физических лиц при автоматизированной обработке персональных данных,
- Европейская конвенция о пресечении терроризма

Участие в консультациях открыто Советом Европы для всех институциональных участников (то есть представителям любых организаций) в индивидуальном порядке.

Однако с учётом значимости итогов консультации для российского бизнеса в целом Центр компетенций при Фонде "Сколково" проведёт совещания для обсуждения и фиксации позиции экспертов по данной теме.

Совещания пройдут:
1) 23 апреля, в пятницу, с 17 до 19 ч.
2) 27 апреля, во вторник, с 15 до 17 ч.

Для участия в совещаниях Центра компетенций
войдите в состав ТРГ 09 "Киберфизические системы".

Для подготовки к совещаниям ТРГ предлагаем использовать ресурсы СЕ и, прежде всего, исследование Спецкомитета (feasibility study).

Также в эту пятницу 16 апреля 2021 г. в 14.00 коллеги из Сбера проведут вебинар. На нём представители России в Совете Европы расскажут о деятельности Спецкомитета и о проходящих консультациях. Принять участие в вебинаре можно будет по ссылке.
Митап: право на данные для AI/ML?

Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных для машинного обучения.

Похожие предложения высказываются и применительно к праву других стран, в том числе в СНГ.

Ранее Директива ЕС 2019/790 и её предшественники уже предоставили ограниченную возможность извлекать и воспроизводить данные из различных источников для научно-исследовательских целей. Но, разумеется, новые предложения идут гораздо дальше.

Стоит ли законодателям искать компромиссы или занять более жёсткую позицию в ту или иную сторону?

Обсудим на очередном голосовом телеграм-митапе канала Robocounsel во вторник 20 апреля 2021 г., в 19:00

Участвуют: Екатерина Кирова, Светлана Поляк, Максим Балаценко, Николай Дмитрик, Алексей Мунтян, Иван Чумаков. Ведёт митап Александр Тюльканов.

UPD: аудиозапись прошедшего митапа здесь.
Нас с вами 300! Спасибо, что читаете и посещаете наши митапы, дальше будет ещё интереснее!
Robocounsel
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет). Спецкомитету поручено выработать общие для СЕ основы…
⚡️Первый проект Конвенции Совета Европы по ИИ может быть разработан уже в ближайшие месяцы

На сегодняшнем вебинаре представитель России в Совете Европы (группа LFG комитета CAHAI) Константин Косоруков обозначил, что Россия поддерживает разработку и принятие Советом Европы не рекомендаций, а обязывающего документа — всеобъемлющей конвенции по искусственному интеллекту.

Константин также высказал предположение, что первый рабочий проект Конвенции, пригодный для обсуждения и дальнейшей проработки внутри СЕ, может быть разработан уже в первом полугодии этого года.

Мария Алеева (Минэкономразвития России) напомнила слушателям вебинара и о других аспектах позиции России по предлагаемой Конвенции:
- применимость только к ИИ гражданского назначения,
- регулирование как применения ИИ, так и аспектов его разработки, включая работу с данными,
- предотвращение угроз правам человека, имея в виду существующие конвенционные права, без создания новых прав,
- обеспечение недискриминационного доступа на рынок государств-членов Конвенции разработчиков из других государств-членов,
- риск-ориентированный подход, без выделения явно и заведомо запрещённых технологий или областей применения ИИ,
- Конвенция должна быть открыта для присоединения государств, не являющихся членами Совета Европы,
- сертификация ИИ, при её необходимости, должна устанавливаться и регламентироваться на национальном, а не на наднациональном уровне.
Live stream started
Live stream finished (1 hour)
Публикуем запись митапа "Право на данные для AI/ML?"

С участием Светланы Поляк, Максима Балаценко, Николая Дмитрика, Алексея Мунтяна и Ивана Чумакова.

Обсудили Text and data mining exception, предложение М. Копа о закреплении "права на обработку данных для машинного обучения". Затронули потенциальную совместимость этого предложения с GDPR и грядущий Data Governance Act, и нужно ли нам это всё в СНГ.

А также правовые последствия построения регулирования по модели из сказок про теремок и грибочек.

https://www.youtube.com/watch?v=NKzccBQZZ8w
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act)

Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека в одном контексте влияет на его оценку в другом контексте.

Определены высокорисковые области применения ИИ и требования к процессам, системам и данным, используемым в таких областях.

В областях ограниченного или минимального риска предусмотрено, соответственно, ограниченное регулирование (в основном касающееся прозрачности взаимодействия с системой ИИ) или отсутствие регулирования.

Предусматривается процедура подтверждения соответствия систем ИИ для областей высокого риска, а также создание Европейского совета по ИИ для содействия стандартизации и введение регуляторных песочниц.

Добровольные кодексы поведения предполагаются для областей применения, не относящихся к высокорисковым.

Опубликован пресс-релиз, а также ответы на вопросы.
Robocounsel
Automation bias (automation complacency) В продолжение темы для интересующихся: есть исследования, подтверждающие феномен слепого доверия автоматизированным системам. Объясняется оно одним из присущих человеческому мышлению когнитивных искажений. Оно так…
К чему приводит склонность людей некритически полагаться на автоматизированные решения?

Алексей Мунтян рассказывает о показательном случае.

Британский Post Office 20 лет использовал ПО, из-за ошибок в котором сотрудникам регулярно вменяли несуществующие недостачи.

Почти 740 сотрудников были ошибочно привлечены к ответственности в период с 2000 по 2014 гг. Причинён огромный моральный вред. И никто не усомнился в надёжности программного обеспечения.

Что я могу сказать? Есть целый ряд исследований (пару из которых я приводил тут), подтверждающих феномен слепого доверия автоматизированным системам.

Объясняется такое доверие одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).

Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).

Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).

Какие выводы?

1. Доверяй, но проверяй. Автоматизированные решения могут и должны проверяться, хотя бы выборочно, на буллшит: ошибка может быть во входных данных, в методах и логике вычисления решения или в его интерпретации.

Для чувствительных применений доказательство надёжности автоматизированной системы должно быть предварительным условием закупки и ввода её в эксплуатацию.

2. Гражданам должны быть доступны эффективные средства правовой защиты, а организации должны критичнее относиться к своим внутренним процедурам и убедиться в том, что в них "зашита" проверка на буллшит, и что урок от Британского Post Office выучен и не повторится.
Robocounsel
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act) Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека…
Европейское регулирование ИИ изменит бизнес-процессы во всём мире и станет "вторым GDPR"

Пол Старрет из PrivacyLabs завёл подкаст и в первый же выпуск пригласил Стивена Ву (Silicon Valley Law Group) — обсуждают проект Регламента ЕС об ИИ (Artificial Intelligence Act).

Те, кто давно в теме регулирования ИИ, могут помнить Стивена по его робомитапам и работе в Комитете по науке и технологиям Американской ассоциации юристов. Он — один из ведущих практикующих юристов по "робоправу" в США.

В подкасте Стивен даёт прогноз эффекта Регламента ЕС об ИИ на американские компании (с 12 мин. 21 сек.).

Он обращает внимание на то, что при выводе продукта на множество рынков компаниям, с точки зрения экономии на масштабе, проще подчинять продукты наиболее строгим из существующих требований.

Таким образом, отмечает он, как это уже было с GDPR, европейское регулирование ИИ в значительной мере трансгранично скорректирует бизнес-процессы в США и других странах, чьи продукты нацелены на рынок ЕС, по принципу "наибольшего общего делителя" ("highest common denominator").

У компаний, конечно, остаётся опция создавать продукты, подчиняющиеся регуляторным требованиям различной степени строгости для различных рынков, но с учетом ущерба для экономии масштаба такая экзотика вряд ли будет посильна большинству разработчиков.

Подписаться на подкаст Пола можно добавив адрес его rss-ленты в любом подкаст-приложении.
"Чёрный ящик" всегда точнее?

Часто говорят, что в машинном обучении мы должны идти на компромисс между точностью и интерпретируемостью моделей. Если модель простая и понятная ("стеклянный ящик"), то она обязательно менее точная, чем сложная непонятная модель ("чёрный ящик").

Специалист по исследованию данных проф. Синтия Рудин и её академическая коллега Джоанна Рэдин в своей статье утверждают: это ложная дихотомия. Аналогия между высокоточной роборукой, ошибающейся в 2% операций и способным объяснить свои действия хирургом, ошибающимся в 15% операций — умышленно или по неосторожности вводит в заблуждение.

Авторы статьи говорят, что по опыту очень часто оказывается возможным сконструировать простой и понятный, и при этом столь же или даже более точный "стеклянный ящик". Поэтому правильно сравнивать точные "чёрные ящики" и точные "стеклянные ящики".

Возможно, для поставленной аналитической задачи даже и не пытались создать, либо не приложили достаточно ресурсов, чтобы попытаться создать точный "стеклянный ящик".

Если задача связана с повышенным риском причинения вреда значимым интересам (например, жизнь и здоровье граждан, тайна частной жизни), нужно задаться вопросом, каковы были мотивы решения не пытаться создать и применить "стеклянный ящик".

В частности, причиной могла быть простая инерция, оставшаяся со времен, когда машиннообученные модели использовались в основном для решения задач в низкорисковых областях.

Или, например, банальный узкочастный интерес — сохранить в тайне секрет работы проприетарного "чёрного ящика" без учёта возможного ущерба другим лицам.
ИИ-анализ лиц для найма на работу: полный провал

Журналисты Байрише Рундфунк решили проверить, насколько хорошо работает ИИ-система помощи в подборе персонала.

Продукт уже используют Люфтганза, БМВ и другие крупные компании.

Оказалось, что система существенно меняет оценку одного и того же человека в зависимости от наличия очков и головного убора, а также от того, каков задний фон.

Кандидат с книжными полками на заднем фоне оценивался как более открытый и прилежный, чем он же без этих полок.

Более того, на оценку кандидата влияло качество освещения.

Профессор Катарина Цвайг в этом контексте замечает: "ИИ — в целом отличный инструмент и нам следует его использовать. Но не для анализа человеческого поведения — тут возникают проблемы".

Ей вторит Джулия Энгвин, журналист, изучающий влияние технологий на общество. Она отмечает: идея о том, что черты лица могут хоть что-то сказать о ваших профессиональных качествах — научно не обоснована.