Robocounsel
1.85K subscribers
216 photos
11 videos
74 files
533 links
О регулировании и социальных аспектах применения робототехники, ИИ, данных и электронной коммерции. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: @robocounsel_bot

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
加入频道
Пять стадий принятия Регламента ЕС по ИИ

Пятничное, но на основе реальных событий
This media is not supported in your browser
VIEW IN TELEGRAM
"Умные очки" сделали слишком умными

На фронтенде стандартные очки с камерами от Мета. На бэкенде самописная программа, пробивающая фото по общедоступным в США базам данных и выдающая эти данные пользователю очков.

Что будете делать, когда в следующий раз увидите человека в "умных очках" с камерами?
This media is not supported in your browser
VIEW IN TELEGRAM
Евразийский конгресс по защите данных

Состоится уже на этой неделе - в четверг 24 и пятницу 25 октября.
Есть оффлайн и онлайн опции. Участие бесплатное.

Ожидается 15+ дискуссий, интересных всем, кто работает в приватности и защите персональных данных, более 50 спикеров.

Все детали смотрите на сайте EDPC.NETWORK
This media is not supported in your browser
VIEW IN TELEGRAM
Новые тренды в дегуманизации эйчар-процессов: ИИ-интервью

Казалось бы, процесс найма уже достаточно испорчен массовым применением ATS (applicant tracking systems), которые отсеивают кандидатов по ключевым словам в резюме (словно это показатель каких-либо реальных навыков).

Но нет, со дна постучали.

Возникает вопрос: какую дополнительную ценность даёт это фейковое интервью, кроме менее точного, менее надёжного сбора той же самой информации, которая уже есть в резюме и мотивационных письмах?

Похоже, мы наблюдаем очередной пример внедрения технологии ради технологии, без учёта реальной пользы и этических аспектов.

Что дальше? ИИ-аватары сотрудников, собирающиеся на виртуальные корпоративы?
Updated PLD.pdf
226.7 KB
Опубликована обновлённая Директива ЕС 2024/2853 об ответственности за товары ненадлежащего качества

Ключевое изменение: к товарам для целей Директивы теперь относится и программное обеспечение, включая ИИ-системы, а разработчики приравниваются к производителям товаров.

Граждане (как сами потребители, приобретшие некачественный товар, так и третьи лица), а также их законные представители или лица, которым соответствующее право требования перешло в порядке наследования или суброгации, вправе требовать возмещения:
- вреда жизни, здоровью, включая психическое здоровье,
- имущественного вреда,
- вреда, причинённого уничтожением или повреждением принадлежащих им данных.

Директива не применяется к причинению вреда имуществу или данных, используемых в профессиональных целях.

Товар (включая ПО) считается товаром ненадлежащего качества, если он не обеспечивает уровня безопасности, установленного законом, или уровня безопасности, на который граждане вправе рассчитывать.

Среди значимых для этого обстоятельств принимается во внимание, в частности, нарушение производителем требований к информационной безопасности, отсутствие своевременных обновлений ПО, а также последующее приобретение товаром новых свойств в результате самообучения при эксплуатации (особенно актуально для ИИ-систем).

Директива предполагает внесение соответствующих изменений в национальное законодательство всех стран-членов ЕС к 9 декабря 2026 года.

С этого же момента утратит силу предыдущая аналогичная Директива 85/374/EEC, принятая в 1985 году.

Обзор обновлённой Директивы во вложении.
День рождения у меня, а подарок — вам

Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов и руководств (NLF, Blue Guide, GPSR, PLD, hENs и др.)...

Присоединяйтесь ко второму потоку моего курса. Отзывы по пилоту отличные — по ссылке, там же даты и детали. Язык — английский.

Для первых пяти присоединившихся с промокодом MERCI — скидка 25% в подарок.
Как технические стандарты могут помочь более активному внедрению ИИ?

Вчера выступил по этой теме (c 29:10) на сессии AIM Global Forum Организации Объединённых Наций по промышленному развитию.
Моё интервью Дудю Ши Брауну

Ши Браун — коллега по сообществу ФорХьюманити, учёный, предприниматель и эксперт, специализирующийся на независимых аудитах ИИ-систем.

Для его подкаста записали интервью, в котором поговорили о моём карьерном пути, Конвенции Совета Европы, Регламенте ЕС по ИИ и о моём новом курсе.

Смотреть интервью

Ознакомиться с курсом
GPT-5 задерживается

Как сообщает WSJ, по словам приближённых к проекту, ключевой инвестор — Майкрософт — рассчитывал на выпуск новой модели к середине 2024 года, но этого не произошло.

На сегодня разработчик, Оупен-Эй-Ай, провёл два многомесячных цикла обучения модели, но полученный результат пока не оправдывает вложенных средств, сообщают инсайдеры в компании. Каждые 6 месяцев обучения обходятся в полмиллиарда долларов расходов только на вычислительную инфраструктуру.

Общий срок работы над проектом Орион (кодовое обозначение GPT-5) уже превысил 18 месяцев, дальнейшие перспективы пока непонятны.
Цифровое наследство, цифровые останки и посмертная неприкосновенность частной жизни

Такие ключевые слова подобрали коллеги из моей алма матер, Эдинбургского университета, для своего нового эмпирического исследования.

Harbinja, Edina, Marisa McVey, and Lilian Edwards. 2024. “Post - Mortem Privacy and Digital Legacy - a Qualitative Enquiry.” SCRIPTed: A Journal of Law, Technology & Society 21(December): 4–39. https://journals.ed.ac.uk/script-ed/article/view/10147

Какой правовой режим более приемлем для нематериальных благ в цифровой среде, таких как наш цифровой профиль, после нашей смерти?

Некоторые операторы цифровых сервисов, включая Фейсбук и Эпл, уже предлагают какие-то инструменты: при жизни вы можете определить посмертный контакт (legacy contact), которому переходят права на управление вашим профилем.

Уже лучше, чем ничего, но что говорит закон? Многим текущее регулирование видится неоптимальным. Следует ли распространить на подобные нематериальные активы общий режим наследования имущества, обеспечив, в частности, посмертный переход права на доступ к информации в силу закона к правопреемникам (propertisation)? Либо давать приоритет прижизненной воле человека (post-mortem privacy)?

Исследование можно рассматривать как начало дискуссии по этому вопросу.
Как ИИ используют в нацбезопасности США?

Департамент по национальной безопасности (DHS) опубликовал обновлённый каталог сценариев применения ИИ-систем (из числа не засекреченных).

Таковых на сегодня 158, из разных сфер — иммиграция, береговая охрана, пограничный контроль, кибербезопасность, и так далее.

Каталог содержит описание сценариев, выявленное влияние на безопасность и права человека, основные риски и меры по их предотвращению.

Дополнительные пояснения к публикации — в блоге ИТ-директора DHS Эрика Хайсена.
Robocounsel
NYT_Complaint_Dec2023.pdf
Прямой эфир по делу Нью-Йорк Таймс против Майкрософта и Оупен-Эй-Ай

Состоится во вторник 14 января 2025 года в 10:30 по Нью-Йорку (18:30 по Москве).

Об этом знаковом деле писал ранее, спор касается нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.

На предстоящем судебном заседании будут заслушаны аргументы сторон в пользу и против удовлетворения ходатайства ответчиков об оставлении искового заявления без рассмотрения.

Для подключения используйте MS Teams, "Join with a meeting ID", затем ID 307 619 861, либо телефон +16464534442, с указанием того же номера конференции.

Дополнительные детали и текст ходатайства по ссылке.
Как малый бизнес может этично проектировать и эксплуатировать ИИ?

Соответствующий стандарт на днях опубликован в Канаде: CAN/DGSI 101:2025 Ethical Design and Use of Artificial Intelligence by Small and Medium Organizations.

Стандарт устанавливает нижний порог требований для учёта этических вопросов при проектировании и эксплуатации ИИ-систем организациями со штатом 500 человек и менее.

В основу положены рекомендации, действующие в Канаде и на международном уровне, включая ИИ-принципы ОЭСР и стандарт по ИИ-риск-менеджменту NIST AI RMF 1.0.
Robocounsel
День рождения у меня, а подарок — вам Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов…
Курс по Регламенту ЕС по ИИ

Напомню, что второй поток начинается уже в феврале. Если вам интересно, но не до конца уверены, есть вопросы по формату, контенту, и так далее — пишите в комментариях к этому посту.

Осталось несколько мест.
Антропик сертифицировал свою систему ИИ-менеджмента по ИСО/МЭК 42001:2023

Таким образом, они стали, кажется, первой организацией из числа лидеров разработки перспективных ИИ-систем общего назначения, которые почувствовали явный запрос рынка на доказательства конкретных действий по ответственной разработке ИИ-систем, а не на пустые маркетинговые заявления.

Сертификация системы менеджмента по стандарту ИСО/МЭК 42001:2023 показывает, что внутри компании реально выстроена система процессов и контроля, а собранные доказательства проаудированы органом по сертификации на соответствие международно признанному фреймворку.

Сам стандарт помогает повысить качество управления разработкой и внедрения ИИ-систем, благодаря чётко прописанным требованиям, обеспечивающим внедрение необходимых политик и процессов, назначение ответственных, непрерывную оценку рисков в течение всего жизненного цикла, внутренний и внешний аудит.

Для компаний, которые планируют развивать технологии искусственного интеллекта в долгосрочной перспективе, подобный фокус на прозрачность и доказательность может стать важным конкурентным преимуществом: партнёры и клиенты получают больше доверия к решениям, основанным на реальных, подтверждённых процедурах.

Хотя при этом внедрение ИСО/МЭК 42001:2023 не даёт презумпции соответствия Регламенту ЕС об ИИ, именно этот стандарт сегодня является лучшим первым шагом для выполнения требований, предъявляемых регламентом. Управление качеством, рисками и постоянный мониторинг процессов — всё это помогает компаниям выстраивать ответственный подход к ИИ и двигаться к ещё более жёстким нормам, установленным в Европе.

Если вы хотите подробнее разобраться в том, как стандарт пересекается с Регламентом ЕС об ИИ и как грамотно применять эти нормы на практике — это ещё один повод записаться на мой курс в феврале.
Please open Telegram to view this post
VIEW IN TELEGRAM
Как создать реестр цифровых отказников?

Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других целей.

Такое право предоставлено Директивой ЕС об авторском праве на едином цифровом рынке, однако практическая его реализация затруднена, поскольку пока не выработан единообразный подход к тому, в какой форме (в том числе машиночитаемой) правообладатели могут на практике декларировать свой отказ.

В извещении о тендере составители исходят из необходимости проработать вопрос использования уникальных идентификаторов произведений и связанных с ними метаданных.
R1: что внутри?

В сети очень большой, и заслуженно, интерес к новой китайской ИИ-модели Deepseek r1.

Она из так называемых ризонинг-моделей (хотя происходящее, по наблюдению Колина Фрейзера в соцсети X, скорее ближе к руминации, чем к консистентному мыслительному процессу, отсюда reasoning models -> rumination models).

Но работает лучше обычных ллм, и почти на одном уровне с OpenAI o1. При стоимости токенов в 21(!) раз дешевле, и при том, что r1 — опен-сорс продукт.

Поэтому многим интересно, как это так получилось, как китайские учёные и разработчики добились таких результатов.

Если вам тоже интересно – в этой статье занимательные инсайты.
Robocounsel
Как создать реестр цифровых отказников? Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других…
Пол Маккартни стал бы одним из первых цифровых отказников

... если бы аналогичный задуманному в ЕС реестр появился бы в Великобритании.

Более того, артист выступает против самого появления на островах правового режима, который бы по умолчанию давал ИИ-разработчикам карт-бланш на свободное использование охраняемых произведений.

Это повредит прежде всего новым, молодым артистам, отмечает он.