Искусственный интеллект и этика на RIGF
07.04 с 13:50 до 15:20 выступаю в секции по искусственному интеллекту и этике на Российском форуме по управлению интернетом.
Также участвуют:
- Эльза Ганеева, Microsoft
- Андрей Игнатьев, Центр Глобальной ИТ-Кооперации, МГИМО
- Ян Клейссен, Совет Европы
- Андрей Незнамов, Сбербанк
- Андрей Кулешов, МФТИ
- Максим Федоров, Сколковский институт науки и технологий
Модераторы: Карен Казарян, РАЭК, Анна Абрамова, МГИМО
Примечательно, что форум пройдёт в гибридном формате, а именно — все уставшие от онлайн-мероприятий приглашаются в Экспоцентр (Краснопресненская набережная, 14).
Регистрируйтесь здесь.
07.04 с 13:50 до 15:20 выступаю в секции по искусственному интеллекту и этике на Российском форуме по управлению интернетом.
Также участвуют:
- Эльза Ганеева, Microsoft
- Андрей Игнатьев, Центр Глобальной ИТ-Кооперации, МГИМО
- Ян Клейссен, Совет Европы
- Андрей Незнамов, Сбербанк
- Андрей Кулешов, МФТИ
- Максим Федоров, Сколковский институт науки и технологий
Модераторы: Карен Казарян, РАЭК, Анна Абрамова, МГИМО
Примечательно, что форум пройдёт в гибридном формате, а именно — все уставшие от онлайн-мероприятий приглашаются в Экспоцентр (Краснопресненская набережная, 14).
Регистрируйтесь здесь.
rigf.ru
RIGF 2025. Российский форум по управлению Интернетом.
Kop_2021_The_Right_to_Process_Data_for_Machine_Learning_Purposes.pdf
318.2 KB
Право на обработку данных?
Kop M, ‘The Right to Process Data for Machine Learning Purposes in the EU’ (2021) 34 Harvard Journal of Law & Technology 1
Сегодня увидел у автора в Линкдине данную статью. Абстракт заинтересовал.
В статье приводятся аргументы в пользу закрепления в праве ЕС sui generis права на обработку данных для целей развития ИИ.
Всё это приурочено к планируемому принятию в ЕС Data Governance Act.
При этом автор выступает за довольно радикальную доработку этого документа. И, в частности, за исключение или существенное ограничение прав на данные в составе наборов данных, предназначенных для машинного обучения.
Конечный вывод — Евросоюзу не стоит слушать бизнес и искать компромисы, а стоит твёрдо и смело проводить политику, которую предпочитает автор.
Доводы, приводимые автором в защиту своих тезисов, кажутся довольно слабо проработанными. Контраргументы самому себе — нарочито не детализированными.
Возможно, вы иного мнения? Обсудим в комментариях.
Kop M, ‘The Right to Process Data for Machine Learning Purposes in the EU’ (2021) 34 Harvard Journal of Law & Technology 1
Сегодня увидел у автора в Линкдине данную статью. Абстракт заинтересовал.
В статье приводятся аргументы в пользу закрепления в праве ЕС sui generis права на обработку данных для целей развития ИИ.
Всё это приурочено к планируемому принятию в ЕС Data Governance Act.
При этом автор выступает за довольно радикальную доработку этого документа. И, в частности, за исключение или существенное ограничение прав на данные в составе наборов данных, предназначенных для машинного обучения.
Конечный вывод — Евросоюзу не стоит слушать бизнес и искать компромисы, а стоит твёрдо и смело проводить политику, которую предпочитает автор.
Доводы, приводимые автором в защиту своих тезисов, кажутся довольно слабо проработанными. Контраргументы самому себе — нарочито не детализированными.
Возможно, вы иного мнения? Обсудим в комментариях.
Robocounsel
Искусственный интеллект и этика на RIGF 07.04 с 13:50 до 15:20 выступаю в секции по искусственному интеллекту и этике на Российском форуме по управлению интернетом. Также участвуют: - Эльза Ганеева, Microsoft - Андрей Игнатьев, Центр Глобальной ИТ-Кооперации…
"Четвёртая власть" и бизнес-этика
СМИ и информагентства России, на ваш взгляд...
СМИ и информагентства России, на ваш взгляд...
Anonymous Poll
2%
полно и объективно освещают неэтичное поведение в бизнесе, и бизнес часто исправляется
2%
полно и объективно освещают неэтичное поведение в бизнесе, но бизнес нечасто исправляется
96%
недостаточно полно и объективно освещают неэтичное поведение в бизнесе
Немного пятничного
Данные - новая нефть, говорите? Но всё новое - хорошо забытое старое:
Не прячьте ваши данные по банкам и углам.
Несите ваши данные, иначе быть беде.
И в полночь ваши данные заройте в землю там.
И в полночь ваши данные заройте в землю где? -
Припев:
Не горы не овраги и не лес,
Не океан без дна и берегов,
А поле, поле, поле, поле чудес,
Поле чудес, в стране дураков.
Крекс-пекс-фекс..
Полейте хорошенечко, советуем мы вам.
И вырастут ветвистые стартапы в темноте.
И вместо листьев денежки засеребрятся там.
И вместо листьев денежки зазолотятся где? -
Припев.
Данные - новая нефть, говорите? Но всё новое - хорошо забытое старое:
Не прячьте ваши данные по банкам и углам.
Несите ваши данные, иначе быть беде.
И в полночь ваши данные заройте в землю там.
И в полночь ваши данные заройте в землю где? -
Припев:
Не горы не овраги и не лес,
Не океан без дна и берегов,
А поле, поле, поле, поле чудес,
Поле чудес, в стране дураков.
Крекс-пекс-фекс..
Полейте хорошенечко, советуем мы вам.
И вырастут ветвистые стартапы в темноте.
И вместо листьев денежки засеребрятся там.
И вместо листьев денежки зазолотятся где? -
Припев.
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ
Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).
Спецкомитету поручено выработать общие для СЕ основы регулирования разработки и применения систем искусственного интеллекта.
В рамках данной задачи Спецкомитет анонсировал и до 29 апреля 2021 г. проводит многосторонние консультации. Результаты консультаций будут учитываться в дальнейшей работе Спецкомитета.
С учётом области деятельности СЕ, фокусом работы Спецкомитета являются не технические аспекты таких систем, а возможное влияние их разработки и применения на права человека.
Ожидаемым результатом работы являются проекты таких правовых инструментов, как конвенции Совета Европы и рекомендации Комитета министров Совета Европы.
Примеры ранее принятых и обязательных для России инструментов СЕ:
- Конвенция о защите прав человека и основных свобод,
- Европейская социальная хартия,
- Конвенция о защите физических лиц при автоматизированной обработке персональных данных,
- Европейская конвенция о пресечении терроризма
Участие в консультациях открыто Советом Европы для всех институциональных участников (то есть представителям любых организаций) в индивидуальном порядке.
Однако с учётом значимости итогов консультации для российского бизнеса в целом Центр компетенций при Фонде "Сколково" проведёт совещания для обсуждения и фиксации позиции экспертов по данной теме.
Совещания пройдут:
1) 23 апреля, в пятницу, с 17 до 19 ч.
2) 27 апреля, во вторник, с 15 до 17 ч.
Для участия в совещаниях Центра компетенций войдите в состав ТРГ 09 "Киберфизические системы".
Для подготовки к совещаниям ТРГ предлагаем использовать ресурсы СЕ и, прежде всего, исследование Спецкомитета (feasibility study).
Также в эту пятницу 16 апреля 2021 г. в 14.00 коллеги из Сбера проведут вебинар. На нём представители России в Совете Европы расскажут о деятельности Спецкомитета и о проходящих консультациях. Принять участие в вебинаре можно будет по ссылке.
Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).
Спецкомитету поручено выработать общие для СЕ основы регулирования разработки и применения систем искусственного интеллекта.
В рамках данной задачи Спецкомитет анонсировал и до 29 апреля 2021 г. проводит многосторонние консультации. Результаты консультаций будут учитываться в дальнейшей работе Спецкомитета.
С учётом области деятельности СЕ, фокусом работы Спецкомитета являются не технические аспекты таких систем, а возможное влияние их разработки и применения на права человека.
Ожидаемым результатом работы являются проекты таких правовых инструментов, как конвенции Совета Европы и рекомендации Комитета министров Совета Европы.
Примеры ранее принятых и обязательных для России инструментов СЕ:
- Конвенция о защите прав человека и основных свобод,
- Европейская социальная хартия,
- Конвенция о защите физических лиц при автоматизированной обработке персональных данных,
- Европейская конвенция о пресечении терроризма
Участие в консультациях открыто Советом Европы для всех институциональных участников (то есть представителям любых организаций) в индивидуальном порядке.
Однако с учётом значимости итогов консультации для российского бизнеса в целом Центр компетенций при Фонде "Сколково" проведёт совещания для обсуждения и фиксации позиции экспертов по данной теме.
Совещания пройдут:
1) 23 апреля, в пятницу, с 17 до 19 ч.
2) 27 апреля, во вторник, с 15 до 17 ч.
Для участия в совещаниях Центра компетенций войдите в состав ТРГ 09 "Киберфизические системы".
Для подготовки к совещаниям ТРГ предлагаем использовать ресурсы СЕ и, прежде всего, исследование Спецкомитета (feasibility study).
Также в эту пятницу 16 апреля 2021 г. в 14.00 коллеги из Сбера проведут вебинар. На нём представители России в Совете Европы расскажут о деятельности Спецкомитета и о проходящих консультациях. Принять участие в вебинаре можно будет по ссылке.
Google Docs
Анкета эксперта
Чтобы присоединиться к работе Центра компетенций по нормативному регулированию Цифровой экономики, заполните контактные данные и отметьте интересующие направления
Митап: право на данные для AI/ML?
Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных для машинного обучения.
Похожие предложения высказываются и применительно к праву других стран, в том числе в СНГ.
Ранее Директива ЕС 2019/790 и её предшественники уже предоставили ограниченную возможность извлекать и воспроизводить данные из различных источников для научно-исследовательских целей. Но, разумеется, новые предложения идут гораздо дальше.
Стоит ли законодателям искать компромиссы или занять более жёсткую позицию в ту или иную сторону?
Обсудим на очередном голосовом телеграм-митапе канала Robocounsel во вторник 20 апреля 2021 г., в 19:00
Участвуют: Екатерина Кирова, Светлана Поляк, Максим Балаценко, Николай Дмитрик, Алексей Мунтян, Иван Чумаков. Ведёт митап Александр Тюльканов.
UPD: аудиозапись прошедшего митапа здесь.
Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных для машинного обучения.
Похожие предложения высказываются и применительно к праву других стран, в том числе в СНГ.
Ранее Директива ЕС 2019/790 и её предшественники уже предоставили ограниченную возможность извлекать и воспроизводить данные из различных источников для научно-исследовательских целей. Но, разумеется, новые предложения идут гораздо дальше.
Стоит ли законодателям искать компромиссы или занять более жёсткую позицию в ту или иную сторону?
Обсудим на очередном голосовом телеграм-митапе канала Robocounsel во вторник 20 апреля 2021 г., в 19:00
Участвуют: Екатерина Кирова, Светлана Поляк, Максим Балаценко, Николай Дмитрик, Алексей Мунтян, Иван Чумаков. Ведёт митап Александр Тюльканов.
UPD: аудиозапись прошедшего митапа здесь.
Robocounsel
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет). Спецкомитету поручено выработать общие для СЕ основы…
⚡️Первый проект Конвенции Совета Европы по ИИ может быть разработан уже в ближайшие месяцы
На сегодняшнем вебинаре представитель России в Совете Европы (группа LFG комитета CAHAI) Константин Косоруков обозначил, что Россия поддерживает разработку и принятие Советом Европы не рекомендаций, а обязывающего документа — всеобъемлющей конвенции по искусственному интеллекту.
Константин также высказал предположение, что первый рабочий проект Конвенции, пригодный для обсуждения и дальнейшей проработки внутри СЕ, может быть разработан уже в первом полугодии этого года.
Мария Алеева (Минэкономразвития России) напомнила слушателям вебинара и о других аспектах позиции России по предлагаемой Конвенции:
- применимость только к ИИ гражданского назначения,
- регулирование как применения ИИ, так и аспектов его разработки, включая работу с данными,
- предотвращение угроз правам человека, имея в виду существующие конвенционные права, без создания новых прав,
- обеспечение недискриминационного доступа на рынок государств-членов Конвенции разработчиков из других государств-членов,
- риск-ориентированный подход, без выделения явно и заведомо запрещённых технологий или областей применения ИИ,
- Конвенция должна быть открыта для присоединения государств, не являющихся членами Совета Европы,
- сертификация ИИ, при её необходимости, должна устанавливаться и регламентироваться на национальном, а не на наднациональном уровне.
На сегодняшнем вебинаре представитель России в Совете Европы (группа LFG комитета CAHAI) Константин Косоруков обозначил, что Россия поддерживает разработку и принятие Советом Европы не рекомендаций, а обязывающего документа — всеобъемлющей конвенции по искусственному интеллекту.
Константин также высказал предположение, что первый рабочий проект Конвенции, пригодный для обсуждения и дальнейшей проработки внутри СЕ, может быть разработан уже в первом полугодии этого года.
Мария Алеева (Минэкономразвития России) напомнила слушателям вебинара и о других аспектах позиции России по предлагаемой Конвенции:
- применимость только к ИИ гражданского назначения,
- регулирование как применения ИИ, так и аспектов его разработки, включая работу с данными,
- предотвращение угроз правам человека, имея в виду существующие конвенционные права, без создания новых прав,
- обеспечение недискриминационного доступа на рынок государств-членов Конвенции разработчиков из других государств-членов,
- риск-ориентированный подход, без выделения явно и заведомо запрещённых технологий или областей применения ИИ,
- Конвенция должна быть открыта для присоединения государств, не являющихся членами Совета Европы,
- сертификация ИИ, при её необходимости, должна устанавливаться и регламентироваться на национальном, а не на наднациональном уровне.
Telegram
Robocounsel
Многосторонние консультации Совета Европы до 29 апреля по регулированию ИИ
Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).
Спецкомитету поручено выработать общие для СЕ основы…
Как вы, возможно, знаете, Советом Европы (СЕ) в 2019 году создан Специальный Комитет по искусственному интеллекту (Спецкомитет).
Спецкомитету поручено выработать общие для СЕ основы…
Публикуем запись митапа "Право на данные для AI/ML?"
С участием Светланы Поляк, Максима Балаценко, Николая Дмитрика, Алексея Мунтяна и Ивана Чумакова.
Обсудили Text and data mining exception, предложение М. Копа о закреплении "права на обработку данных для машинного обучения". Затронули потенциальную совместимость этого предложения с GDPR и грядущий Data Governance Act, и нужно ли нам это всё в СНГ.
А также правовые последствия построения регулирования по модели из сказок про теремок и грибочек.
https://www.youtube.com/watch?v=NKzccBQZZ8w
С участием Светланы Поляк, Максима Балаценко, Николая Дмитрика, Алексея Мунтяна и Ивана Чумакова.
Обсудили Text and data mining exception, предложение М. Копа о закреплении "права на обработку данных для машинного обучения". Затронули потенциальную совместимость этого предложения с GDPR и грядущий Data Governance Act, и нужно ли нам это всё в СНГ.
А также правовые последствия построения регулирования по модели из сказок про теремок и грибочек.
https://www.youtube.com/watch?v=NKzccBQZZ8w
Telegram
Robocounsel
Митап: право на данные для AI/ML?
Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных…
Мориц Коп в своей недавней статье предлагает ввести новое "право на обработку данных" для разработчиков систем искусственного интеллекта. И, соответственно, ограничить права владельцев любых наборов данных, предназначенных…
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act)
Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека в одном контексте влияет на его оценку в другом контексте.
Определены высокорисковые области применения ИИ и требования к процессам, системам и данным, используемым в таких областях.
В областях ограниченного или минимального риска предусмотрено, соответственно, ограниченное регулирование (в основном касающееся прозрачности взаимодействия с системой ИИ) или отсутствие регулирования.
Предусматривается процедура подтверждения соответствия систем ИИ для областей высокого риска, а также создание Европейского совета по ИИ для содействия стандартизации и введение регуляторных песочниц.
Добровольные кодексы поведения предполагаются для областей применения, не относящихся к высокорисковым.
Опубликован пресс-релиз, а также ответы на вопросы.
Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека в одном контексте влияет на его оценку в другом контексте.
Определены высокорисковые области применения ИИ и требования к процессам, системам и данным, используемым в таких областях.
В областях ограниченного или минимального риска предусмотрено, соответственно, ограниченное регулирование (в основном касающееся прозрачности взаимодействия с системой ИИ) или отсутствие регулирования.
Предусматривается процедура подтверждения соответствия систем ИИ для областей высокого риска, а также создание Европейского совета по ИИ для содействия стандартизации и введение регуляторных песочниц.
Добровольные кодексы поведения предполагаются для областей применения, не относящихся к высокорисковым.
Опубликован пресс-релиз, а также ответы на вопросы.
European Commission - European Commission
Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence
The Commission proposes today new rules and actions aiming to turn Europe into the global hub for trustworthy Artificial Intelligence (AI).
Robocounsel
Automation bias (automation complacency) В продолжение темы для интересующихся: есть исследования, подтверждающие феномен слепого доверия автоматизированным системам. Объясняется оно одним из присущих человеческому мышлению когнитивных искажений. Оно так…
К чему приводит склонность людей некритически полагаться на автоматизированные решения?
Алексей Мунтян рассказывает о показательном случае.
Британский Post Office 20 лет использовал ПО, из-за ошибок в котором сотрудникам регулярно вменяли несуществующие недостачи.
Почти 740 сотрудников были ошибочно привлечены к ответственности в период с 2000 по 2014 гг. Причинён огромный моральный вред. И никто не усомнился в надёжности программного обеспечения.
Что я могу сказать? Есть целый ряд исследований (пару из которых я приводил тут), подтверждающих феномен слепого доверия автоматизированным системам.
Объясняется такое доверие одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).
Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).
Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).
Какие выводы?
1. Доверяй, но проверяй. Автоматизированные решения могут и должны проверяться, хотя бы выборочно, на буллшит: ошибка может быть во входных данных, в методах и логике вычисления решения или в его интерпретации.
Для чувствительных применений доказательство надёжности автоматизированной системы должно быть предварительным условием закупки и ввода её в эксплуатацию.
2. Гражданам должны быть доступны эффективные средства правовой защиты, а организации должны критичнее относиться к своим внутренним процедурам и убедиться в том, что в них "зашита" проверка на буллшит, и что урок от Британского Post Office выучен и не повторится.
Алексей Мунтян рассказывает о показательном случае.
Британский Post Office 20 лет использовал ПО, из-за ошибок в котором сотрудникам регулярно вменяли несуществующие недостачи.
Почти 740 сотрудников были ошибочно привлечены к ответственности в период с 2000 по 2014 гг. Причинён огромный моральный вред. И никто не усомнился в надёжности программного обеспечения.
Что я могу сказать? Есть целый ряд исследований (пару из которых я приводил тут), подтверждающих феномен слепого доверия автоматизированным системам.
Объясняется такое доверие одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).
Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).
Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).
Какие выводы?
1. Доверяй, но проверяй. Автоматизированные решения могут и должны проверяться, хотя бы выборочно, на буллшит: ошибка может быть во входных данных, в методах и логике вычисления решения или в его интерпретации.
Для чувствительных применений доказательство надёжности автоматизированной системы должно быть предварительным условием закупки и ввода её в эксплуатацию.
2. Гражданам должны быть доступны эффективные средства правовой защиты, а организации должны критичнее относиться к своим внутренним процедурам и убедиться в том, что в них "зашита" проверка на буллшит, и что урок от Британского Post Office выучен и не повторится.
Robocounsel
⚡️Опубликован проект Регламента ЕС о гармонизированных правилах в отношении ИИ (Artificial Intelligence Act) Предложено запретить некоторые применения ИИ, в частности — внедрение для государственных нужд систем социального скоринга, в которых поведение человека…
Европейское регулирование ИИ изменит бизнес-процессы во всём мире и станет "вторым GDPR"
Пол Старрет из PrivacyLabs завёл подкаст и в первый же выпуск пригласил Стивена Ву (Silicon Valley Law Group) — обсуждают проект Регламента ЕС об ИИ (Artificial Intelligence Act).
Те, кто давно в теме регулирования ИИ, могут помнить Стивена по его робомитапам и работе в Комитете по науке и технологиям Американской ассоциации юристов. Он — один из ведущих практикующих юристов по "робоправу" в США.
В подкасте Стивен даёт прогноз эффекта Регламента ЕС об ИИ на американские компании (с 12 мин. 21 сек.).
Он обращает внимание на то, что при выводе продукта на множество рынков компаниям, с точки зрения экономии на масштабе, проще подчинять продукты наиболее строгим из существующих требований.
Таким образом, отмечает он, как это уже было с GDPR, европейское регулирование ИИ в значительной мере трансгранично скорректирует бизнес-процессы в США и других странах, чьи продукты нацелены на рынок ЕС, по принципу "наибольшего общего делителя" ("highest common denominator").
У компаний, конечно, остаётся опция создавать продукты, подчиняющиеся регуляторным требованиям различной степени строгости для различных рынков, но с учетом ущерба для экономии масштаба такая экзотика вряд ли будет посильна большинству разработчиков.
Подписаться на подкаст Пола можно добавив адрес его rss-ленты в любом подкаст-приложении.
Пол Старрет из PrivacyLabs завёл подкаст и в первый же выпуск пригласил Стивена Ву (Silicon Valley Law Group) — обсуждают проект Регламента ЕС об ИИ (Artificial Intelligence Act).
Те, кто давно в теме регулирования ИИ, могут помнить Стивена по его робомитапам и работе в Комитете по науке и технологиям Американской ассоциации юристов. Он — один из ведущих практикующих юристов по "робоправу" в США.
В подкасте Стивен даёт прогноз эффекта Регламента ЕС об ИИ на американские компании (с 12 мин. 21 сек.).
Он обращает внимание на то, что при выводе продукта на множество рынков компаниям, с точки зрения экономии на масштабе, проще подчинять продукты наиболее строгим из существующих требований.
Таким образом, отмечает он, как это уже было с GDPR, европейское регулирование ИИ в значительной мере трансгранично скорректирует бизнес-процессы в США и других странах, чьи продукты нацелены на рынок ЕС, по принципу "наибольшего общего делителя" ("highest common denominator").
У компаний, конечно, остаётся опция создавать продукты, подчиняющиеся регуляторным требованиям различной степени строгости для различных рынков, но с учетом ущерба для экономии масштаба такая экзотика вряд ли будет посильна большинству разработчиков.
Подписаться на подкаст Пола можно добавив адрес его rss-ленты в любом подкаст-приложении.
Дипфейки: что и как?
13 мая в 19:30 Moscow Legal Hackers проводят интересное мероприятие:
https://yangx.top/msklegalhackers/8952
13 мая в 19:30 Moscow Legal Hackers проводят интересное мероприятие:
https://yangx.top/msklegalhackers/8952
Telegram
Holger Zscheyge in MOSCOW LEGAL HACKERS
Лигалхакеры, привет!
Moscow Legal Hackers и red_mad_robot решили провести онлайн-встречу посвященную DeepFakes.
red_mad_robot — технологическая компания, мобильный разработчик #1 (CNews, Tagline) и последние годы успешно развивает ИИ-направление.
Юристы…
Moscow Legal Hackers и red_mad_robot решили провести онлайн-встречу посвященную DeepFakes.
red_mad_robot — технологическая компания, мобильный разработчик #1 (CNews, Tagline) и последние годы успешно развивает ИИ-направление.
Юристы…
"Чёрный ящик" всегда точнее?
Часто говорят, что в машинном обучении мы должны идти на компромисс между точностью и интерпретируемостью моделей. Если модель простая и понятная ("стеклянный ящик"), то она обязательно менее точная, чем сложная непонятная модель ("чёрный ящик").
Специалист по исследованию данных проф. Синтия Рудин и её академическая коллега Джоанна Рэдин в своей статье утверждают: это ложная дихотомия. Аналогия между высокоточной роборукой, ошибающейся в 2% операций и способным объяснить свои действия хирургом, ошибающимся в 15% операций — умышленно или по неосторожности вводит в заблуждение.
Авторы статьи говорят, что по опыту очень часто оказывается возможным сконструировать простой и понятный, и при этом столь же или даже более точный "стеклянный ящик". Поэтому правильно сравнивать точные "чёрные ящики" и точные "стеклянные ящики".
Возможно, для поставленной аналитической задачи даже и не пытались создать, либо не приложили достаточно ресурсов, чтобы попытаться создать точный "стеклянный ящик".
Если задача связана с повышенным риском причинения вреда значимым интересам (например, жизнь и здоровье граждан, тайна частной жизни), нужно задаться вопросом, каковы были мотивы решения не пытаться создать и применить "стеклянный ящик".
В частности, причиной могла быть простая инерция, оставшаяся со времен, когда машиннообученные модели использовались в основном для решения задач в низкорисковых областях.
Или, например, банальный узкочастный интерес — сохранить в тайне секрет работы проприетарного "чёрного ящика" без учёта возможного ущерба другим лицам.
Часто говорят, что в машинном обучении мы должны идти на компромисс между точностью и интерпретируемостью моделей. Если модель простая и понятная ("стеклянный ящик"), то она обязательно менее точная, чем сложная непонятная модель ("чёрный ящик").
Специалист по исследованию данных проф. Синтия Рудин и её академическая коллега Джоанна Рэдин в своей статье утверждают: это ложная дихотомия. Аналогия между высокоточной роборукой, ошибающейся в 2% операций и способным объяснить свои действия хирургом, ошибающимся в 15% операций — умышленно или по неосторожности вводит в заблуждение.
Авторы статьи говорят, что по опыту очень часто оказывается возможным сконструировать простой и понятный, и при этом столь же или даже более точный "стеклянный ящик". Поэтому правильно сравнивать точные "чёрные ящики" и точные "стеклянные ящики".
Возможно, для поставленной аналитической задачи даже и не пытались создать, либо не приложили достаточно ресурсов, чтобы попытаться создать точный "стеклянный ящик".
Если задача связана с повышенным риском причинения вреда значимым интересам (например, жизнь и здоровье граждан, тайна частной жизни), нужно задаться вопросом, каковы были мотивы решения не пытаться создать и применить "стеклянный ящик".
В частности, причиной могла быть простая инерция, оставшаяся со времен, когда машиннообученные модели использовались в основном для решения задач в низкорисковых областях.
Или, например, банальный узкочастный интерес — сохранить в тайне секрет работы проприетарного "чёрного ящика" без учёта возможного ущерба другим лицам.
Harvard Data Science Review
Why Are We Using Black Box Models in AI When We Don’t Need To? A Lesson From an Explainable AI Competition · Issue 1.2, Fall 2019
ИИ-анализ лиц для найма на работу: полный провал
Журналисты Байрише Рундфунк решили проверить, насколько хорошо работает ИИ-система помощи в подборе персонала.
Продукт уже используют Люфтганза, БМВ и другие крупные компании.
Оказалось, что система существенно меняет оценку одного и того же человека в зависимости от наличия очков и головного убора, а также от того, каков задний фон.
Кандидат с книжными полками на заднем фоне оценивался как более открытый и прилежный, чем он же без этих полок.
Более того, на оценку кандидата влияло качество освещения.
Профессор Катарина Цвайг в этом контексте замечает: "ИИ — в целом отличный инструмент и нам следует его использовать. Но не для анализа человеческого поведения — тут возникают проблемы".
Ей вторит Джулия Энгвин, журналист, изучающий влияние технологий на общество. Она отмечает: идея о том, что черты лица могут хоть что-то сказать о ваших профессиональных качествах — научно не обоснована.
Журналисты Байрише Рундфунк решили проверить, насколько хорошо работает ИИ-система помощи в подборе персонала.
Продукт уже используют Люфтганза, БМВ и другие крупные компании.
Оказалось, что система существенно меняет оценку одного и того же человека в зависимости от наличия очков и головного убора, а также от того, каков задний фон.
Кандидат с книжными полками на заднем фоне оценивался как более открытый и прилежный, чем он же без этих полок.
Более того, на оценку кандидата влияло качество освещения.
Профессор Катарина Цвайг в этом контексте замечает: "ИИ — в целом отличный инструмент и нам следует его использовать. Но не для анализа человеческого поведения — тут возникают проблемы".
Ей вторит Джулия Энгвин, журналист, изучающий влияние технологий на общество. Она отмечает: идея о том, что черты лица могут хоть что-то сказать о ваших профессиональных качествах — научно не обоснована.