This media is not supported in your browser
VIEW IN TELEGRAM
"Умные очки" сделали слишком умными
На фронтенде стандартные очки с камерами от Мета. На бэкенде самописная программа, пробивающая фото по общедоступным в США базам данных и выдающая эти данные пользователю очков.
Что будете делать, когда в следующий раз увидите человека в "умных очках" с камерами?
На фронтенде стандартные очки с камерами от Мета. На бэкенде самописная программа, пробивающая фото по общедоступным в США базам данных и выдающая эти данные пользователю очков.
Что будете делать, когда в следующий раз увидите человека в "умных очках" с камерами?
Robocounsel
"Умные очки" сделали слишком умными На фронтенде стандартные очки с камерами от Мета. На бэкенде самописная программа, пробивающая фото по общедоступным в США базам данных и выдающая эти данные пользователю очков. Что будете делать, когда в следующий раз…
Тут из Меты поясняют, что сами очки не имеют функции распознавания лиц. Это всё студенты и их самописная программа!
This media is not supported in your browser
VIEW IN TELEGRAM
Евразийский конгресс по защите данных
Состоится уже на этой неделе - в четверг 24 и пятницу 25 октября.
Есть оффлайн и онлайн опции. Участие бесплатное.
Ожидается 15+ дискуссий, интересных всем, кто работает в приватности и защите персональных данных, более 50 спикеров.
Все детали смотрите на сайте EDPC.NETWORK
Состоится уже на этой неделе - в четверг 24 и пятницу 25 октября.
Есть оффлайн и онлайн опции. Участие бесплатное.
Ожидается 15+ дискуссий, интересных всем, кто работает в приватности и защите персональных данных, более 50 спикеров.
Все детали смотрите на сайте EDPC.NETWORK
This media is not supported in your browser
VIEW IN TELEGRAM
Новые тренды в дегуманизации эйчар-процессов: ИИ-интервью
Казалось бы, процесс найма уже достаточно испорчен массовым применением ATS (applicant tracking systems), которые отсеивают кандидатов по ключевым словам в резюме (словно это показатель каких-либо реальных навыков).
Но нет, со дна постучали.
Возникает вопрос: какую дополнительную ценность даёт это фейковое интервью, кроме менее точного, менее надёжного сбора той же самой информации, которая уже есть в резюме и мотивационных письмах?
Похоже, мы наблюдаем очередной пример внедрения технологии ради технологии, без учёта реальной пользы и этических аспектов.
Что дальше? ИИ-аватары сотрудников, собирающиеся на виртуальные корпоративы?
Казалось бы, процесс найма уже достаточно испорчен массовым применением ATS (applicant tracking systems), которые отсеивают кандидатов по ключевым словам в резюме (словно это показатель каких-либо реальных навыков).
Но нет, со дна постучали.
Возникает вопрос: какую дополнительную ценность даёт это фейковое интервью, кроме менее точного, менее надёжного сбора той же самой информации, которая уже есть в резюме и мотивационных письмах?
Похоже, мы наблюдаем очередной пример внедрения технологии ради технологии, без учёта реальной пользы и этических аспектов.
Что дальше? ИИ-аватары сотрудников, собирающиеся на виртуальные корпоративы?
Updated PLD.pdf
226.7 KB
Опубликована обновлённая Директива ЕС 2024/2853 об ответственности за товары ненадлежащего качества
Ключевое изменение: к товарам для целей Директивы теперь относится и программное обеспечение, включая ИИ-системы, а разработчики приравниваются к производителям товаров.
Граждане (как сами потребители, приобретшие некачественный товар, так и третьи лица), а также их законные представители или лица, которым соответствующее право требования перешло в порядке наследования или суброгации, вправе требовать возмещения:
- вреда жизни, здоровью, включая психическое здоровье,
- имущественного вреда,
- вреда, причинённого уничтожением или повреждением принадлежащих им данных.
Директива не применяется к причинению вреда имуществу или данных, используемых в профессиональных целях.
Товар (включая ПО) считается товаром ненадлежащего качества, если он не обеспечивает уровня безопасности, установленного законом, или уровня безопасности, на который граждане вправе рассчитывать.
Среди значимых для этого обстоятельств принимается во внимание, в частности, нарушение производителем требований к информационной безопасности, отсутствие своевременных обновлений ПО, а также последующее приобретение товаром новых свойств в результате самообучения при эксплуатации (особенно актуально для ИИ-систем).
Директива предполагает внесение соответствующих изменений в национальное законодательство всех стран-членов ЕС к 9 декабря 2026 года.
С этого же момента утратит силу предыдущая аналогичная Директива 85/374/EEC, принятая в 1985 году.
Обзор обновлённой Директивы во вложении.
Ключевое изменение: к товарам для целей Директивы теперь относится и программное обеспечение, включая ИИ-системы, а разработчики приравниваются к производителям товаров.
Граждане (как сами потребители, приобретшие некачественный товар, так и третьи лица), а также их законные представители или лица, которым соответствующее право требования перешло в порядке наследования или суброгации, вправе требовать возмещения:
- вреда жизни, здоровью, включая психическое здоровье,
- имущественного вреда,
- вреда, причинённого уничтожением или повреждением принадлежащих им данных.
Директива не применяется к причинению вреда имуществу или данных, используемых в профессиональных целях.
Товар (включая ПО) считается товаром ненадлежащего качества, если он не обеспечивает уровня безопасности, установленного законом, или уровня безопасности, на который граждане вправе рассчитывать.
Среди значимых для этого обстоятельств принимается во внимание, в частности, нарушение производителем требований к информационной безопасности, отсутствие своевременных обновлений ПО, а также последующее приобретение товаром новых свойств в результате самообучения при эксплуатации (особенно актуально для ИИ-систем).
Директива предполагает внесение соответствующих изменений в национальное законодательство всех стран-членов ЕС к 9 декабря 2026 года.
С этого же момента утратит силу предыдущая аналогичная Директива 85/374/EEC, принятая в 1985 году.
Обзор обновлённой Директивы во вложении.
День рождения у меня, а подарок — вам
Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов и руководств (NLF, Blue Guide, GPSR, PLD, hENs и др.)...
Присоединяйтесь ко второму потоку моего курса. Отзывы по пилоту отличные — по ссылке, там же даты и детали. Язык — английский.
Для первых пяти присоединившихся с промокодом MERCI — скидка 25% в подарок.
Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов и руководств (NLF, Blue Guide, GPSR, PLD, hENs и др.)...
Присоединяйтесь ко второму потоку моего курса. Отзывы по пилоту отличные — по ссылке, там же даты и детали. Язык — английский.
Для первых пяти присоединившихся с промокодом MERCI — скидка 25% в подарок.
Как технические стандарты могут помочь более активному внедрению ИИ?
Вчера выступил по этой теме (c 29:10) на сессии AIM Global Forum Организации Объединённых Наций по промышленному развитию.
Вчера выступил по этой теме (c 29:10) на сессии AIM Global Forum Организации Объединённых Наций по промышленному развитию.
YouTube
AIM Global Forum: Online Session ''How to promote broader application of AI in the industry''
This session focuses on promoting AI application in industry and manufacturing through regulatory and other non-financial. The participants are expected to discuss how legislation, consulting and infrastructure can facilitate development and application of…
Моё интервью Дудю Ши Брауну
Ши Браун — коллега по сообществу ФорХьюманити, учёный, предприниматель и эксперт, специализирующийся на независимых аудитах ИИ-систем.
Для его подкаста записали интервью, в котором поговорили о моём карьерном пути, Конвенции Совета Европы, Регламенте ЕС по ИИ и о моём новом курсе.
Смотреть интервью
Ознакомиться с курсом
Ши Браун — коллега по сообществу ФорХьюманити, учёный, предприниматель и эксперт, специализирующийся на независимых аудитах ИИ-систем.
Для его подкаста записали интервью, в котором поговорили о моём карьерном пути, Конвенции Совета Европы, Регламенте ЕС по ИИ и о моём новом курсе.
Смотреть интервью
Ознакомиться с курсом
BABL AI
Navigating AI Policy with Aleksandr Tiulkanov
In this episode of Lunchtime BABLing, CEO Shea Brown sits down with Aleksandr Tiulkanov, an expert in AI compliance and digital policy.
GPT-5 задерживается
Как сообщает WSJ, по словам приближённых к проекту, ключевой инвестор — Майкрософт — рассчитывал на выпуск новой модели к середине 2024 года, но этого не произошло.
На сегодня разработчик, Оупен-Эй-Ай, провёл два многомесячных цикла обучения модели, но полученный результат пока не оправдывает вложенных средств, сообщают инсайдеры в компании. Каждые 6 месяцев обучения обходятся в полмиллиарда долларов расходов только на вычислительную инфраструктуру.
Общий срок работы над проектом Орион (кодовое обозначение GPT-5) уже превысил 18 месяцев, дальнейшие перспективы пока непонятны.
Как сообщает WSJ, по словам приближённых к проекту, ключевой инвестор — Майкрософт — рассчитывал на выпуск новой модели к середине 2024 года, но этого не произошло.
На сегодня разработчик, Оупен-Эй-Ай, провёл два многомесячных цикла обучения модели, но полученный результат пока не оправдывает вложенных средств, сообщают инсайдеры в компании. Каждые 6 месяцев обучения обходятся в полмиллиарда долларов расходов только на вычислительную инфраструктуру.
Общий срок работы над проектом Орион (кодовое обозначение GPT-5) уже превысил 18 месяцев, дальнейшие перспективы пока непонятны.
WSJ
The Next Great Leap in AI Is Behind Schedule and Crazy Expensive
The startup has run into problem after problem on its new artificial-intelligence project, code-named Orion.
Цифровое наследство, цифровые останки и посмертная неприкосновенность частной жизни
Такие ключевые слова подобрали коллеги из моей алма матер, Эдинбургского университета, для своего нового эмпирического исследования.
Harbinja, Edina, Marisa McVey, and Lilian Edwards. 2024. “Post - Mortem Privacy and Digital Legacy - a Qualitative Enquiry.” SCRIPTed: A Journal of Law, Technology & Society 21(December): 4–39. https://journals.ed.ac.uk/script-ed/article/view/10147
Какой правовой режим более приемлем для нематериальных благ в цифровой среде, таких как наш цифровой профиль, после нашей смерти?
Некоторые операторы цифровых сервисов, включая Фейсбук и Эпл, уже предлагают какие-то инструменты: при жизни вы можете определить посмертный контакт (legacy contact), которому переходят права на управление вашим профилем.
Уже лучше, чем ничего, но что говорит закон? Многим текущее регулирование видится неоптимальным. Следует ли распространить на подобные нематериальные активы общий режим наследования имущества, обеспечив, в частности, посмертный переход права на доступ к информации в силу закона к правопреемникам (propertisation)? Либо давать приоритет прижизненной воле человека (post-mortem privacy)?
Исследование можно рассматривать как начало дискуссии по этому вопросу.
Такие ключевые слова подобрали коллеги из моей алма матер, Эдинбургского университета, для своего нового эмпирического исследования.
Harbinja, Edina, Marisa McVey, and Lilian Edwards. 2024. “Post - Mortem Privacy and Digital Legacy - a Qualitative Enquiry.” SCRIPTed: A Journal of Law, Technology & Society 21(December): 4–39. https://journals.ed.ac.uk/script-ed/article/view/10147
Какой правовой режим более приемлем для нематериальных благ в цифровой среде, таких как наш цифровой профиль, после нашей смерти?
Некоторые операторы цифровых сервисов, включая Фейсбук и Эпл, уже предлагают какие-то инструменты: при жизни вы можете определить посмертный контакт (legacy contact), которому переходят права на управление вашим профилем.
Уже лучше, чем ничего, но что говорит закон? Многим текущее регулирование видится неоптимальным. Следует ли распространить на подобные нематериальные активы общий режим наследования имущества, обеспечив, в частности, посмертный переход права на доступ к информации в силу закона к правопреемникам (propertisation)? Либо давать приоритет прижизненной воле человека (post-mortem privacy)?
Исследование можно рассматривать как начало дискуссии по этому вопросу.
Как ИИ используют в нацбезопасности США?
Департамент по национальной безопасности (DHS) опубликовал обновлённый каталог сценариев применения ИИ-систем (из числа не засекреченных).
Таковых на сегодня 158, из разных сфер — иммиграция, береговая охрана, пограничный контроль, кибербезопасность, и так далее.
Каталог содержит описание сценариев, выявленное влияние на безопасность и права человека, основные риски и меры по их предотвращению.
Дополнительные пояснения к публикации — в блоге ИТ-директора DHS Эрика Хайсена.
Департамент по национальной безопасности (DHS) опубликовал обновлённый каталог сценариев применения ИИ-систем (из числа не засекреченных).
Таковых на сегодня 158, из разных сфер — иммиграция, береговая охрана, пограничный контроль, кибербезопасность, и так далее.
Каталог содержит описание сценариев, выявленное влияние на безопасность и права человека, основные риски и меры по их предотвращению.
Дополнительные пояснения к публикации — в блоге ИТ-директора DHS Эрика Хайсена.
U.S. Department of Homeland Security
Artificial Intelligence Use Case Inventory | Homeland Security
The simplified Artificial Intelligence use case inventory provides readers with an overview for each AI use case.
Robocounsel
NYT_Complaint_Dec2023.pdf
Прямой эфир по делу Нью-Йорк Таймс против Майкрософта и Оупен-Эй-Ай
Состоится во вторник 14 января 2025 года в 10:30 по Нью-Йорку (18:30 по Москве).
Об этом знаковом деле писал ранее, спор касается нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.
На предстоящем судебном заседании будут заслушаны аргументы сторон в пользу и против удовлетворения ходатайства ответчиков об оставлении искового заявления без рассмотрения.
Для подключения используйте MS Teams, "Join with a meeting ID", затем ID 307 619 861, либо телефон +16464534442, с указанием того же номера конференции.
Дополнительные детали и текст ходатайства по ссылке.
Состоится во вторник 14 января 2025 года в 10:30 по Нью-Йорку (18:30 по Москве).
Об этом знаковом деле писал ранее, спор касается нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.
На предстоящем судебном заседании будут заслушаны аргументы сторон в пользу и против удовлетворения ходатайства ответчиков об оставлении искового заявления без рассмотрения.
Для подключения используйте MS Teams, "Join with a meeting ID", затем ID 307 619 861, либо телефон +16464534442, с указанием того же номера конференции.
Дополнительные детали и текст ходатайства по ссылке.
Telegram
Robocounsel
Нью-Йорк Таймс против Майкрософта и Оупен-Эй-Ай
Вчера редакция газеты подала иск против этих компаний по мотивам нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.
Применимы ли доводы решения по делу Authors…
Вчера редакция газеты подала иск против этих компаний по мотивам нарушения исключительных прав на контент статей, использованных при обучении больших языковых моделей.
Применимы ли доводы решения по делу Authors…
Robocounsel
Прямой эфир по делу Нью-Йорк Таймс против Майкрософта и Оупен-Эй-Ай Состоится во вторник 14 января 2025 года в 10:30 по Нью-Йорку (18:30 по Москве). Об этом знаковом деле писал ранее, спор касается нарушения исключительных прав на контент статей, использованных…
Как малый бизнес может этично проектировать и эксплуатировать ИИ?
Соответствующий стандарт на днях опубликован в Канаде: CAN/DGSI 101:2025 Ethical Design and Use of Artificial Intelligence by Small and Medium Organizations.
Стандарт устанавливает нижний порог требований для учёта этических вопросов при проектировании и эксплуатации ИИ-систем организациями со штатом 500 человек и менее.
В основу положены рекомендации, действующие в Канаде и на международном уровне, включая ИИ-принципы ОЭСР и стандарт по ИИ-риск-менеджменту NIST AI RMF 1.0.
Соответствующий стандарт на днях опубликован в Канаде: CAN/DGSI 101:2025 Ethical Design and Use of Artificial Intelligence by Small and Medium Organizations.
Стандарт устанавливает нижний порог требований для учёта этических вопросов при проектировании и эксплуатации ИИ-систем организациями со штатом 500 человек и менее.
В основу положены рекомендации, действующие в Канаде и на международном уровне, включая ИИ-принципы ОЭСР и стандарт по ИИ-риск-менеджменту NIST AI RMF 1.0.
Digital Governance Council
CAN/DGSI 101: Ethical Design and Use of Automated Decision Systems
Back Ethical Use of Artificial Intelligence by Small and Medium Organizations CAN/CIOSC 101:2019 (Reaffirmed 2021-10) Comment on Draft Download Standard
Robocounsel
День рождения у меня, а подарок — вам Если вы хотите в деталях разобраться, кому и как нужно применять (а кому можно не применять) Регламент ЕС по искусственному интеллекту на практике, какие нюансы нужно учитывать из смежного законодательства, стандартов…
Курс по Регламенту ЕС по ИИ
Напомню, что второй поток начинается уже в феврале. Если вам интересно, но не до конца уверены, есть вопросы по формату, контенту, и так далее — пишите в комментариях к этому посту.
Осталось несколько мест.
Напомню, что второй поток начинается уже в феврале. Если вам интересно, но не до конца уверены, есть вопросы по формату, контенту, и так далее — пишите в комментариях к этому посту.
Осталось несколько мест.
Антропик сертифицировал свою систему ИИ-менеджмента по ИСО/МЭК 42001:2023
Таким образом, они стали, кажется, первой организацией из числа лидеров разработки перспективных ИИ-систем общего назначения, которые почувствовали явный запрос рынка на доказательства конкретных действий по ответственной разработке ИИ-систем, а не на пустые маркетинговые заявления.
Сертификация системы менеджмента по стандарту ИСО/МЭК 42001:2023 показывает, что внутри компании реально выстроена система процессов и контроля, а собранные доказательства проаудированы органом по сертификации на соответствие международно признанному фреймворку.
Сам стандарт помогает повысить качество управления разработкой и внедрения ИИ-систем, благодаря чётко прописанным требованиям, обеспечивающим внедрение необходимых политик и процессов, назначение ответственных, непрерывную оценку рисков в течение всего жизненного цикла, внутренний и внешний аудит.
Для компаний, которые планируют развивать технологии искусственного интеллекта в долгосрочной перспективе, подобный фокус на прозрачность и доказательность может стать важным конкурентным преимуществом: партнёры и клиенты получают больше доверия к решениям, основанным на реальных, подтверждённых процедурах.
Хотя при этом внедрение ИСО/МЭК 42001:2023 не даёт презумпции соответствия Регламенту ЕС об ИИ, именно этот стандарт сегодня является лучшим первым шагом для выполнения требований, предъявляемых регламентом. Управление качеством, рисками и постоянный мониторинг процессов — всё это помогает компаниям выстраивать ответственный подход к ИИ и двигаться к ещё более жёстким нормам, установленным в Европе.
Если вы хотите подробнее разобраться в том, как стандарт пересекается с Регламентом ЕС об ИИ и как грамотно применять эти нормы на практике — это ещё один повод записаться на мой курс в феврале.
Таким образом, они стали, кажется, первой организацией из числа лидеров разработки перспективных ИИ-систем общего назначения, которые почувствовали явный запрос рынка на доказательства конкретных действий по ответственной разработке ИИ-систем, а не на пустые маркетинговые заявления.
Сертификация системы менеджмента по стандарту ИСО/МЭК 42001:2023 показывает, что внутри компании реально выстроена система процессов и контроля, а собранные доказательства проаудированы органом по сертификации на соответствие международно признанному фреймворку.
Сам стандарт помогает повысить качество управления разработкой и внедрения ИИ-систем, благодаря чётко прописанным требованиям, обеспечивающим внедрение необходимых политик и процессов, назначение ответственных, непрерывную оценку рисков в течение всего жизненного цикла, внутренний и внешний аудит.
Для компаний, которые планируют развивать технологии искусственного интеллекта в долгосрочной перспективе, подобный фокус на прозрачность и доказательность может стать важным конкурентным преимуществом: партнёры и клиенты получают больше доверия к решениям, основанным на реальных, подтверждённых процедурах.
Хотя при этом внедрение ИСО/МЭК 42001:2023 не даёт презумпции соответствия Регламенту ЕС об ИИ, именно этот стандарт сегодня является лучшим первым шагом для выполнения требований, предъявляемых регламентом. Управление качеством, рисками и постоянный мониторинг процессов — всё это помогает компаниям выстраивать ответственный подход к ИИ и двигаться к ещё более жёстким нормам, установленным в Европе.
Если вы хотите подробнее разобраться в том, как стандарт пересекается с Регламентом ЕС об ИИ и как грамотно применять эти нормы на практике — это ещё один повод записаться на мой курс в феврале.
Anthropic
Anthropic achieves ISO 42001 certification for responsible AI
We are excited to announce that Anthropic has achieved accredited certification under the new ISO/IEC 42001:2023 standard for our AI management system. ISO 42001 is the first international standard outlining requirements for AI governance and helps ensure…
Please open Telegram to view this post
VIEW IN TELEGRAM
Как создать реестр цифровых отказников?
Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других целей.
Такое право предоставлено Директивой ЕС об авторском праве на едином цифровом рынке, однако практическая его реализация затруднена, поскольку пока не выработан единообразный подход к тому, в какой форме (в том числе машиночитаемой) правообладатели могут на практике декларировать свой отказ.
В извещении о тендере составители исходят из необходимости проработать вопрос использования уникальных идентификаторов произведений и связанных с ними метаданных.
Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других целей.
Такое право предоставлено Директивой ЕС об авторском праве на едином цифровом рынке, однако практическая его реализация затруднена, поскольку пока не выработан единообразный подход к тому, в какой форме (в том числе машиночитаемой) правообладатели могут на практике декларировать свой отказ.
В извещении о тендере составители исходят из необходимости проработать вопрос использования уникальных идентификаторов произведений и связанных с ними метаданных.
ec.europa.eu
EU Funding & Tenders Portal
The Funding and Tenders Portal is the single entry point (the Single Electronic Data Interchange Area) for applicants, contractors and experts in funding programmes and procurements managed by the European Commission.
R1: что внутри?
В сети очень большой, и заслуженно, интерес к новой китайской ИИ-модели Deepseek r1.
Она из так называемых ризонинг-моделей (хотя происходящее, по наблюдению Колина Фрейзера в соцсети X, скорее ближе к руминации, чем к консистентному мыслительному процессу, отсюда reasoning models -> rumination models).
Но работает лучше обычных ллм, и почти на одном уровне с OpenAI o1. При стоимости токенов в 21(!) раз дешевле, и при том, что r1 — опен-сорс продукт.
Поэтому многим интересно, как это так получилось, как китайские учёные и разработчики добились таких результатов.
Если вам тоже интересно – в этой статье занимательные инсайты.
В сети очень большой, и заслуженно, интерес к новой китайской ИИ-модели Deepseek r1.
Она из так называемых ризонинг-моделей (хотя происходящее, по наблюдению Колина Фрейзера в соцсети X, скорее ближе к руминации, чем к консистентному мыслительному процессу, отсюда reasoning models -> rumination models).
Но работает лучше обычных ллм, и почти на одном уровне с OpenAI o1. При стоимости токенов в 21(!) раз дешевле, и при том, что r1 — опен-сорс продукт.
Поэтому многим интересно, как это так получилось, как китайские учёные и разработчики добились таких результатов.
Если вам тоже интересно – в этой статье занимательные инсайты.
timkellogg.me
Explainer: What's R1 & Everything Else?
Robocounsel
Как создать реестр цифровых отказников? Еврокомиссия запустила тендер на научно-исследовательские работы по теме возможного создания единого реестра правообладателей, желающих реализовать своё право на отказ от парсинга их контента для обучения ИИ и других…
Пол Маккартни стал бы одним из первых цифровых отказников
... если бы аналогичный задуманному в ЕС реестр появился бы в Великобритании.
Более того, артист выступает против самого появления на островах правового режима, который бы по умолчанию давал ИИ-разработчикам карт-бланш на свободное использование охраняемых произведений.
Это повредит прежде всего новым, молодым артистам, отмечает он.
... если бы аналогичный задуманному в ЕС реестр появился бы в Великобритании.
Более того, артист выступает против самого появления на островах правового режима, который бы по умолчанию давал ИИ-разработчикам карт-бланш на свободное использование охраняемых произведений.
Это повредит прежде всего новым, молодым артистам, отмечает он.
NBC News
Paul McCartney warns British government of the risks of AI ripping off artists
The British government is consulting on whether to let tech firms use copyrighted material to help train AI models unless the creators explicitly opt out.