Robocounsel
1.83K subscribers
209 photos
11 videos
72 files
516 links
О регулировании и социальных аспектах применения робототехники, ИИ, данных и электронной коммерции. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: @robocounsel_bot

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
加入频道
GPT-5 задерживается

Как сообщает WSJ, по словам приближённых к проекту, ключевой инвестор — Майкрософт — рассчитывал на выпуск новой модели к середине 2024 года, но этого не произошло.

На сегодня разработчик, Оупен-Эй-Ай, провёл два многомесячных цикла обучения модели, но полученный результат пока не оправдывает вложенных средств, сообщают инсайдеры в компании. Каждые 6 месяцев обучения обходятся в полмиллиарда долларов расходов только на вычислительную инфраструктуру.

Общий срок работы над проектом Орион (кодовое обозначение GPT-5) уже превысил 18 месяцев, дальнейшие перспективы пока непонятны.
Цифровое наследство, цифровые останки и посмертная неприкосновенность частной жизни

Такие ключевые слова подобрали коллеги из моей алма матер, Эдинбургского университета, для своего нового эмпирического исследования.

Harbinja, Edina, Marisa McVey, and Lilian Edwards. 2024. “Post - Mortem Privacy and Digital Legacy - a Qualitative Enquiry.” SCRIPTed: A Journal of Law, Technology & Society 21(December): 4–39. https://journals.ed.ac.uk/script-ed/article/view/10147

Какой правовой режим более приемлем для нематериальных благ в цифровой среде, таких как наш цифровой профиль, после нашей смерти?

Некоторые операторы цифровых сервисов, включая Фейсбук и Эпл, уже предлагают какие-то инструменты: при жизни вы можете определить посмертный контакт (legacy contact), которому переходят права на управление вашим профилем.

Уже лучше, чем ничего, но что говорит закон? Многим текущее регулирование видится неоптимальным. Следует ли распространить на подобные нематериальные активы общий режим наследования имущества, обеспечив, в частности, посмертный переход права на доступ к информации в силу закона к правопреемникам (propertisation)? Либо давать приоритет прижизненной воле человека (post-mortem privacy)?

Исследование можно рассматривать как начало дискуссии по этому вопросу.
Как ИИ используют в нацбезопасности США?

Департамент по национальной безопасности (DHS) опубликовал обновлённый каталог сценариев применения ИИ-систем (из числа не засекреченных).

Таковых на сегодня 158, из разных сфер — иммиграция, береговая охрана, пограничный контроль, кибербезопасность, и так далее.

Каталог содержит описание сценариев, выявленное влияние на безопасность и права человека, основные риски и меры по их предотвращению.

Дополнительные пояснения к публикации — в блоге ИТ-директора DHS Эрика Хайсена.
Robocounsel
NYT_Complaint_Dec2023.pdf
Прямой эфир по делу Нью-Йорк Таймс против Майкрософта и Оупен-Эй-Ай

Состоится во вторник 14 января 2025 года в 10:30 по Нью-Йорку (18:30 по Москве).

Об этом знаковом деле писал ранее, спор касается нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.

На предстоящем судебном заседании будут заслушаны аргументы сторон в пользу и против удовлетворения ходатайства ответчиков об оставлении искового заявления без рассмотрения.

Для подключения используйте MS Teams, "Join with a meeting ID", затем ID 307 619 861, либо телефон +16464534442, с указанием того же номера конференции.

Дополнительные детали и текст ходатайства по ссылке.
Как малый бизнес может этично проектировать и эксплуатировать ИИ?

Соответствующий стандарт на днях опубликован в Канаде: CAN/DGSI 101:2025 Ethical Design and Use of Artificial Intelligence by Small and Medium Organizations.

Стандарт устанавливает нижний порог требований для учёта этических вопросов при проектировании и эксплуатации ИИ-систем организациями со штатом 500 человек и менее.

В основу положены рекомендации, действующие в Канаде и на международном уровне, включая ИИ-принципы ОЭСР и стандарт по ИИ-риск-менеджменту NIST AI RMF 1.0.
Robocounsel
День рождения у меня, а подарок — вам Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов…
Курс по Регламенту ЕС по ИИ

Напомню, что второй поток начинается уже в феврале. Если вам интересно, но не до конца уверены, есть вопросы по формату, контенту, и так далее — пишите в комментариях к этому посту.

Осталось несколько мест.
Антропик сертифицировал свою систему ИИ-менеджмента по ИСО/МЭК 42001:2023

Таким образом, они стали, кажется, первой организацией из числа лидеров разработки перспективных ИИ-систем общего назначения, которые почувствовали явный запрос рынка на доказательства конкретных действий по ответственной разработке ИИ-систем, а не на пустые маркетинговые заявления.

Сертификация системы менеджмента по стандарту ИСО/МЭК 42001:2023 показывает, что внутри компании реально выстроена система процессов и контроля, а собранные доказательства проаудированы органом по сертификации на соответствие международно признанному фреймворку.

Сам стандарт помогает повысить качество управления разработкой и внедрения ИИ-систем, благодаря чётко прописанным требованиям, обеспечивающим внедрение необходимых политик и процессов, назначение ответственных, непрерывную оценку рисков в течение всего жизненного цикла, внутренний и внешний аудит.

Для компаний, которые планируют развивать технологии искусственного интеллекта в долгосрочной перспективе, подобный фокус на прозрачность и доказательность может стать важным конкурентным преимуществом: партнёры и клиенты получают больше доверия к решениям, основанным на реальных, подтверждённых процедурах.

Хотя при этом внедрение ИСО/МЭК 42001:2023 не даёт презумпции соответствия Регламенту ЕС об ИИ, именно этот стандарт сегодня является лучшим первым шагом для выполнения требований, предъявляемых регламентом. Управление качеством, рисками и постоянный мониторинг процессов — всё это помогает компаниям выстраивать ответственный подход к ИИ и двигаться к ещё более жёстким нормам, установленным в Европе.

Если вы хотите подробнее разобраться в том, как стандарт пересекается с Регламентом ЕС об ИИ и как грамотно применять эти нормы на практике — это ещё один повод записаться на мой курс в феврале.
Please open Telegram to view this post
VIEW IN TELEGRAM
Как создать реестр цифровых отказников?

Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других целей.

Такое право предоставлено Директивой ЕС об авторском праве на едином цифровом рынке, однако практическая его реализация затруднена, поскольку пока не выработан единообразный подход к тому, в какой форме (в том числе машиночитаемой) правообладатели могут на практике декларировать свой отказ.

В извещении о тендере составители исходят из необходимости проработать вопрос использования уникальных идентификаторов произведений и связанных с ними метаданных.
R1: что внутри?

В сети очень большой, и заслуженно, интерес к новой китайской ИИ-модели Deepseek r1.

Она из так называемых ризонинг-моделей (хотя происходящее, по наблюдению Колина Фрейзера в соцсети X, скорее ближе к руминации, чем к консистентному мыслительному процессу, отсюда reasoning models -> rumination models).

Но работает лучше обычных ллм, и почти на одном уровне с OpenAI o1. При стоимости токенов в 21(!) раз дешевле, и при том, что r1 — опен-сорс продукт.

Поэтому многим интересно, как это так получилось, как китайские учёные и разработчики добились таких результатов.

Если вам тоже интересно – в этой статье занимательные инсайты.
Robocounsel
Как создать реестр цифровых отказников? Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других…
Пол Маккартни стал бы одним из первых цифровых отказников

... если бы аналогичный задуманному в ЕС реестр появился бы в Великобритании.

Более того, артист выступает против самого появления на островах правового режима, который бы по умолчанию давал ИИ-разработчикам карт-бланш на свободное использование охраняемых произведений.

Это повредит прежде всего новым, молодым артистам, отмечает он.
Robocounsel
R1: что внутри? В сети очень большой, и заслуженно, интерес к новой китайской ИИ-модели Deepseek r1. Она из так называемых ризонинг-моделей (хотя происходящее, по наблюдению Колина Фрейзера в соцсети X, скорее ближе к руминации, чем к консистентному мыслительному…
R1: аттракцион неслыханной транспарентности

Самое любопытное отличие r1 от американских ризонинг-моделей: она показывает пользователю промежуточные токены (CoT), которые генерируются моделью и добавляются к промту, чтобы повысить шансы найти более адекватный ответ.

То есть в отличие от OpenAI o1, в Deepseek r1 вы можете посмотреть на внутренние руминации модели, которые потом не входят в финальный ответ, но определяют его содержимое.

Естественно, я спросил про Тяньаньмэнь. На английском оказалось вообще бесполезно — как только система пытается вывести ответ с этим словом, включается какой-то жёсткий фильтр и весь ответ (и предшествующая ему руминация) удаляются из диалога и с экрана.

На русском модель зацензурирована слабее, и в окне руминации можно подсмотреть вот такие фантастические по транспарентности откровения. Серым шрифтом — промежуточные руминации, чёрным внизу — итоговый ответ.
Хорошо забытое старое (в масштабах ИИ-новостей) китайское регулирование генеративного ИИ

Поскольку особенности китайской ИИ-этики и заодно ИИ-регулирования снова в тренде, я просто оставлю это здесь: Временные меры по управлению генеративным ИИ от 2023 г.

С тем самым объясняющим многое принципом: "При оказании и использовании услуг в области генеративного ИИ должны поддерживаться основополагающие социалистические ценности", ст. 4.
Как работают аккредитация, сертификация и нотификация в ЕС?

Как известно, Регламент ЕС по искусственному интеллекту вводит требования к разработке и внедрению ИИ-систем повышенной опасности. Но эффективность нового Регламента напрямую зависит от существующей инфраструктуры качества ЕС.

Ключевой её элемент — Регламент 765/2008, которые устанавливает единые правила аккредитации органов по сертификации.

Именно эти органы по сертификации и будут по заказам ИИ-компаний участвовать в подтверждении соответствия их продуктов требованиям Регламента — в тех случаях, когда он требует не просто задекларировать соответствие, а проверить его — с участием независимой стороны.

Это требуется, например, для систем биометрической идентификации — они должны пройти оценку по процедуре, схожей в общих чертах с той, которая существует для медицинских изделий.

При этом право на участие в подтверждении соответствия ИИ-систем повышенной опасности будут иметь только организации, которые нотифицированы властями одной из стран ЕС — по результатам их проверки либо этими властями, либо национальным органом по аккредитации.

Особую роль здесь играет Многостороннее соглашение по еврокооперации в области аккредитации (EA MLA), гарантирующее взаимное признание аккредитаций между странами-членами. Это снижает издержки бизнеса, позволяя выбрать подходящий аккредитованный и нотифицированный орган, оценка которого признаётся в рамках всего ЕС.

Все взаимосвязи отражены на прилагаемой схеме.

Подробнее обо всём этом и не только рассказываю на своём курсе по Регламенту ЕС по ИИ в феврале — регистрация закрывается на этой неделе, поэтому если интересно — поторопитесь присоединиться. Для оплаты по российским картам — пишите через бот.
International_AI_Safety_Report_2025_accessible_f.pdf
4.4 MB
Идентификация и управление рисками ИИ общего назначения (GPAI)

Такова тема нового отчёта, выпущенного британским Департаментом по инновациям, науке и технологиям.

Над отчётом в почти 300 страниц трудились 100 международных экспертов, и лишь небольшая его часть посвящена спекулятивным рискам потери контроля над ИИ-системами будущего.

97% отчёта — сугубо практические наблюдения об актуальных, часто уже задокументированных негативных последствиях применения ИИ-систем и о том, какими техническими мерами им можно противостоять.

Отчёт содержит более 1300 (!) ссылок на литературу и потому представляет собой по сути энциклопедию GPAI риск-менеджмента по состоянию на 2025 год. Читать - не перечитать.

Свои впечатления и инсайты высказал в видеоформе здесь.
Почему операторам на европейском рынке выгодно прекратить запрещённые ИИ-практики до введения штрафов?

Сегодня, 2 февраля 2025 года, вступили в силу первые положения Регламента ЕС по ИИ, запрещающие определённые ИИ-практики. При этом административные санкции начнут действовать только с августа 2025 года. Что же тогда должно мотивировать компании пошевелиться до этого момента?

Экономический стимул соблюдать запреты уже сейчас кроется не в самих положениях Регламента, а в том, как он вписан в общую правовую систему ЕС.

Регламенты ЕС имеют прямое действие на территории всех государств-членов ЕС. Поэтому с сегодняшнего дня:

📌 Запрещённые ИИ-практики (социальный скоринг, манипулятивные ИИ-чатботы типа "AI girlfriends", массовый парсинг фото для создания баз лицевой биометрии и др.) становятся прямо предусмотренной законом разновидностью противоправного поведения;

⚖️ Осуществление запрещённой ИИ-практики может образовывать состав гражданского правонарушения и влечь деликтную ответственность по национальному праву;

💼 Истцы смогут требовать возмещения вреда, причинённого деликтом, при доказанности вреда, противоправного поведения и причинной связи между ними (принцип генерального деликта: ст. 1240 ГК Франции, § 823 Германского гражданского уложения и др.)

Если вы планируете вывод на рынок ЕС своего ИИ-продукта или уже сделали это, но сомневаетесь, нет ли в нём запрещённого с сегодняшнего дня функционала - пишите, помогу разобраться.
This media is not supported in your browser
VIEW IN TELEGRAM
Помни о Директиве № 4

Журналист Марти Суонт отмечает: после того, как Марк Цукерберг запостил в своей соцсети фото с инаугурации Трампа, в комментариях, естественно, было довольно много и позитива, и негатива.

Но интересное не в этом, а в том, как "суммирует" комментарии ИИ компании Цукерберга (для американских пользователей его соцсети недавно стал доступен такой функционал):

Бот пытается более-менее объективно суммировать все комментарии, но поскольку в них есть и негатив, тут же включаются какие-то жёсткие фильтры (по типу тех, которые у Дипсика вырезают всё про Тяньаньмэнь) и всё саммари пропадает с экрана.

Вспоминается фильм "Робокоп", где у робота-правоохранителя в основные директивы была зашита секретная четвёртая: никогда не противостоять должностному лицу ОКП (производитель робота).

А какова четвёртая директива у вашей любимой ИИ-системы?
C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo.pdf
1.2 MB
Как избежать включения в ваш ИИ-продукт запрещённого в ЕС функционала?

Еврокомиссия опубликовала проект своих разъяснений по применению положений статьи 5 Регламента ЕС по ИИ. Ожидается, что в ближайшие дни этот проект будет утверждён.

Кому актуально — читаем очень внимательно.

И конечно же будем разбирать эту тему на моём курсе, второй поток которого начинается в эту пятницу.