Robocounsel
1.77K subscribers
206 photos
11 videos
70 files
497 links
О регулировании и социальных аспектах применения робототехники, ИИ, данных и электронной коммерции. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: @robocounsel_bot

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
加入频道
Страхование ответственности при внедрении и эксплуатации автономных систем

В центре компетенций Фонда "Сколково" планируем обсудить с участием страховых компаний проблематику страхования ответственности при эксплуатации автономного и высокоавтоматизированного транспорта и иных робототехнических систем.

Если вы имеете отношение к робототехнике или страхованию и желаете поучаствовать дискуссии — пишите: @tyulkanov
Повышается ответственность за нарушения при обработке персональных данных

В контексте федеральной программы "Цифровая экономика" часто обсуждают, как расширение возможностей применения персональных данных (при принятии определённых мер предосторожности) могло бы способствовать развитию искусственного интеллекта, например — при построении более точных моделей в ходе машинного обучения.

Однако фактическая государственная политика в этом вопросе часто складывается с опорой скорее на кнут, нежели на пряник.

Об этом может свидетельствовать и данный законопроект, принятый сегодня Госдумой в третьем чтении.

Срок, в течение которого возможно привлечь к ответственности за административные правонарушения в области персональных данных теперь будет составлять не 3 месяца, а один год с момента их совершения.

Многие штрафы увеличены вдвое.

Также введена повышенная ответственность за некоторые повторные нарушения. Например, для юридического лица штраф составит:

- за повторную обработку персональных данных в не предусмотренных законодательством случаях или в целях, несовместимых с целями сбора данных — до 300 тыс. руб.
- за повторную обработку персональных данных без согласия субъекта в письменной форме, когда оно требуется — до 500 тыс. руб.
- за повторный отказ уточнить, заблокировать или уничтожить персональные данные по требованию субъекта или уполномоченного органа — до 500 тыс. руб.
Машина имитирует человека: правовые аспекты

2 марта, во вторник, в 19:00
мы проводим первый голосовой митап телеграм-канала @robocounsel. Обсудим правовые аспекты имитации человека машиной в формате голосового митапа.

Участники: Анастасия Сковпень, Марина Рожкова, Максим Али, Владислав Архипов, Вадим Перевалов и я (Александр Тюльканов).

Контекст:

Майкрософт получил патент на чатбота, имитирующего конкретного человека. Запатентованное решение предполагает, что из различных источников создаётся агрегированный "индекс личности", на котором чатбот обучается её имитировать.

В то же время КНР вводит в свой Гражданский кодекс прямую норму, запрещающую подобную имитацию без согласия человека.

Похожие на нас персональные ассистенты, наши личные аватары да и просто создаваемые без нашего согласия дипфейки - в какой-то мере уже не будущее, а вполне себе настоящее.

Возникают вопросы, связанные с личными неимущественными правами, разумными ожиданиями и интересами других лиц, этикой и публичным порядком, патентными и иными интеллектуальными правами.

Для участия:

1) Сохраните приглашение в календарь.

2) В день мероприятия пройдите по ссылке.
Наш первый митап здесь — уже в ближайший вторник!

Обо всём, что имитирует человека, с его согласия и без: дипфейки, аватары, чатботы и тёмные голокроны ситхов.

Сохраните приглашение в календарь:

https://yangx.top/robocounsel/109
Автоматическое правоприменение и документооборот

Иногда приходится слышать такие предложения: давайте прекратим указывать, что постановление о штрафе вынес сержант Петров, если его полностью автоматически вынесла информационная система.

Мол, это и неправда, и несправедливо к Петрову.

Давайте просто: именем Российской Федерации, с вас 5000 рублей. С уважением, государственная автоматизированная система "Росштраф".

Возникает вопрос, не упускаем ли мы здесь то, как работает механизм ответственности в человеческом обществе? Не игнорируем ли мы основы социальной психологии?

Ведь, по крайней мере на первый взгляд, полное устранение из подобного документа указания на ответственного будет стимулировать безответственное применение автоматизированных систем. Так как ответственность будет «размазываться» на аморфный госорган или Российскую Федерацию или её субъект.

В таком случае никакое конкретное должностное лицо не будет мотивировано (угрозой потери должности, работы, денег, личной свободы) обеспечивать справедливость и отсутствие злоупотреблений в процессе принятия конкретного решения в отношении конкретного гражданина.

Да, у документов, созданных информационной системой, может и не быть человеческого автора. Но если речь идёт о документах, опосредующих принятие важных юридически значимых решений, у таких документов может — и должен — быть человеческий контролёр, ревизор. С учётом неизбежного несовершенства техники и всегда неполностью предсказуемой среды, в которой такая техника работает.

Нецелесообразность человеческого контроля на стадии создания конкретного документа не означает, что такой контроль должен пропасть вовсе.

Такой контроль лишь перемещается на следующий, более высокий уровень — контроль за процессом создания и исполнения документов (возможно, с верификацией отдельных документов в зависимости от степени риска).

С учётом этого, кажется правильным рассуждать не об устранении из подобных документов указания на конкретное должностное лицо, связанное с конкретным документом, а об изменении статуса лиц, указываемых в документах, соотвественно их реальной роли (контролёр, ревизор и т.п.).

Согласны, либо возражаете? Давайте обсудим в комментариях.
Искусственный интеллект и этика на RIGF

07.04 с 13:50 до 15:20
выступаю в секции по искусственному интеллекту и этике на Российском форуме по управлению интернетом.

Также участвуют:
- Эльза Ганеева, Microsoft
- Андрей Игнатьев, Центр Глобальной ИТ-Кооперации, МГИМО
- Ян Клейссен, Совет Европы
- Андрей Незнамов, Сбербанк
- Андрей Кулешов, МФТИ
- Максим Федоров, Сколковский институт науки и технологий

Модераторы: Карен Казарян, РАЭК, Анна Абрамова, МГИМО

Примечательно, что форум пройдёт в гибридном формате, а именно — все уставшие от онлайн-мероприятий приглашаются в Экспоцентр (Краснопресненская набережная, 14).

Регистрируйтесь здесь.
Kop_2021_The_Right_to_Process_Data_for_Machine_Learning_Purposes.pdf
318.2 KB
Право на обработку данных?

Kop M, ‘The Right to Process Data for Machine Learning Purposes in the EU’ (2021) 34 Harvard Journal of Law & Technology 1

Сегодня увидел у автора в Линкдине данную статью. Абстракт заинтересовал.

В статье приводятся аргументы в пользу закрепления в праве ЕС sui generis права на обработку данных для целей развития ИИ.

Всё это приурочено к планируемому принятию в ЕС Data Governance Act.

При этом автор выступает за довольно радикальную доработку этого документа. И, в частности, за исключение или существенное ограничение прав на данные в составе наборов данных, предназначенных для машинного обучения.

Конечный вывод — Евросоюзу не стоит слушать бизнес и искать компромисы, а стоит твёрдо и смело проводить политику, которую предпочитает автор.

Доводы, приводимые автором в защиту своих тезисов, кажутся довольно слабо проработанными. Контраргументы самому себе — нарочито не детализированными.

Возможно, вы иного мнения? Обсудим в комментариях.
Начало RIGF уже скоро. А на заднем плане Самизнаетекто. В этом топике будут комментарии по ходу мероприятия.
Немного пятничного

Данные - новая нефть, говорите? Но всё новое - хорошо забытое старое:

Не прячьте ваши данные по банкам и углам.
Несите ваши данные, иначе быть беде.
И в полночь ваши данные заройте в землю там.
И в полночь ваши данные заройте в землю где? -

Припев:
Не горы не овраги и не лес,
Не океан без дна и берегов,
А поле, поле, поле, поле чудес,
Поле чудес, в стране дураков.
Крекс-пекс-фекс..

Полейте хорошенечко, советуем мы вам.
И вырастут ветвистые стартапы в темноте.
И вместо листьев денежки засеребрятся там.
И вместо листьев денежки зазолотятся где? -

Припев.
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ

Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).

Спецкомитету поручено выработать общие для СЕ основы регулирования разработки и применения систем искусственного интеллекта.

В рамках данной задачи Спецкомитет анонсировал и до 29 апреля 2021 г. проводит многосторонние консультации. Результаты консультаций будут учитываться в дальнейшей работе Спецкомитета.

С учётом области деятельности СЕ, фокусом работы Спецкомитета являются не технические аспекты таких систем, а возможное влияние их разработки и применения на права человека.

Ожидаемым результатом работы являются проекты таких правовых инструментов, как конвенции Совета Европы и рекомендации Комитета министров Совета Европы.

Примеры ранее принятых и обязательных для России инструментов СЕ:
- Конвенция о защите прав человека и основных свобод,
- Европейская социальная хартия,
- Конвенция о защите физических лиц при автоматизированной обработке персональных данных,
- Европейская конвенция о пресечении терроризма

Участие в консультациях открыто Советом Европы для всех институциональных участников (то есть представителям любых организаций) в индивидуальном порядке.

Однако с учётом значимости итогов консультации для российского бизнеса в целом Центр компетенций при Фонде "Сколково" проведёт совещания для обсуждения и фиксации позиции экспертов по данной теме.

Совещания пройдут:
1) 23 апреля, в пятницу, с 17 до 19 ч.
2) 27 апреля, во вторник, с 15 до 17 ч.

Для участия в совещаниях Центра компетенций
войдите в состав ТРГ 09 "Киберфизические системы".

Для подготовки к совещаниям ТРГ предлагаем использовать ресурсы СЕ и, прежде всего, исследование Спецкомитета (feasibility study).

Также в эту пятницу 16 апреля 2021 г. в 14.00 коллеги из Сбера проведут вебинар. На нём представители России в Совете Европы расскажут о деятельности Спецкомитета и о проходящих консультациях. Принять участие в вебинаре можно будет по ссылке.
Митап: право на данные для AI/ML?

Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных для машинного обучения.

Похожие предложения высказываются и применительно к праву других стран, в том числе в СНГ.

Ранее Директива ЕС 2019/790 и её предшественники уже предоставили ограниченную возможность извлекать и воспроизводить данные из различных источников для научно-исследовательских целей. Но, разумеется, новые предложения идут гораздо дальше.

Стоит ли законодателям искать компромиссы или занять более жёсткую позицию в ту или иную сторону?

Обсудим на очередном голосовом телеграм-митапе канала Robocounsel во вторник 20 апреля 2021 г., в 19:00

Участвуют: Екатерина Кирова, Светлана Поляк, Максим Балаценко, Николай Дмитрик, Алексей Мунтян, Иван Чумаков. Ведёт митап Александр Тюльканов.

UPD: аудиозапись прошедшего митапа здесь.
Нас с вами 300! Спасибо, что читаете и посещаете наши митапы, дальше будет ещё интереснее!
Robocounsel
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет). Спецкомитету поручено выработать общие для СЕ основы…
⚡️Первый проект Конвенции Совета Европы по ИИ может быть разработан уже в ближайшие месяцы

На сегодняшнем вебинаре представитель России в Совете Европы (группа LFG комитета CAHAI) Константин Косоруков обозначил, что Россия поддерживает разработку и принятие Советом Европы не рекомендаций, а обязывающего документа — всеобъемлющей конвенции по искусственному интеллекту.

Константин также высказал предположение, что первый рабочий проект Конвенции, пригодный для обсуждения и дальнейшей проработки внутри СЕ, может быть разработан уже в первом полугодии этого года.

Мария Алеева (Минэкономразвития России) напомнила слушателям вебинара и о других аспектах позиции России по предлагаемой Конвенции:
- применимость только к ИИ гражданского назначения,
- регулирование как применения ИИ, так и аспектов его разработки, включая работу с данными,
- предотвращение угроз правам человека, имея в виду существующие конвенционные права, без создания новых прав,
- обеспечение недискриминационного доступа на рынок государств-членов Конвенции разработчиков из других государств-членов,
- риск-ориентированный подход, без выделения явно и заведомо запрещённых технологий или областей применения ИИ,
- Конвенция должна быть открыта для присоединения государств, не являющихся членами Совета Европы,
- сертификация ИИ, при её необходимости, должна устанавливаться и регламентироваться на национальном, а не на наднациональном уровне.
Live stream started
Live stream finished (1 hour)
Публикуем запись митапа "Право на данные для AI/ML?"

С участием Светланы Поляк, Максима Балаценко, Николая Дмитрика, Алексея Мунтяна и Ивана Чумакова.

Обсудили Text and data mining exception, предложение М. Копа о закреплении "права на обработку данных для машинного обучения". Затронули потенциальную совместимость этого предложения с GDPR и грядущий Data Governance Act, и нужно ли нам это всё в СНГ.

А также правовые последствия построения регулирования по модели из сказок про теремок и грибочек.

https://www.youtube.com/watch?v=NKzccBQZZ8w