Воскресное
Искусственный интеллект
Этика
📌Суд в Австралии не признал авторское право искусственного интеллекта DABUS (аббревиатура для «устройства для автономной загрузки единого сознания») в отношении «контейнера для пищевых продуктов и устройства для привлечения повышенного внимания»
👉Основания не признавать:
⛔️ непредоставление адреса и имени изобретателя
⛔️ неправоспособность ИИ (передача патента от изобретателя другому лицу – юридический акт, в котором обе стороны должны быть правоспособны)
❗️Интересные детали:
☑️ изобретение было автономно сгенерировано искусственный интеллект DABUS
☑️ иск подал владелец DABUS доктор Стивен Тайлер
☑️ до иска Патентное бюро IP Australia отказалось зарегистрировать это изобретение
✅Кейс ставит много интересных и юридических и этических вопросов от правосопособности ИИ, уровня автономности ИИ при создании чего-либо до возможности подавать в интересах ИИ иск в суд
В ближайшие годы скорее всего мы увидим много таких решений и дискуссий, похоже позицию формулировать уже надо, но пока все еще нет хорошей связки между правом, этикой и техническими особенностями функционирования ИИ
❓Ведь если ИИ правоспособен, но его владелец тогда кто по отношению к нему? И какие тогда между ними должны быть отношения? Чем регулироваться и т.д.
⚡️Ну и если совсем заглянуть вперед – то может быть однажды кому-то придется защищать в судах и права ИИ, но это уже другая история и реальность
https://pravo.ru/news/240400/
Текст решения здесь: https://www.judgments.fedcourt.gov.au/judgments/Judgments/fca/full/2022/2022fcafc0062
#воскресное
#искусственныйинтеллект
#этика
Искусственный интеллект
Этика
📌Суд в Австралии не признал авторское право искусственного интеллекта DABUS (аббревиатура для «устройства для автономной загрузки единого сознания») в отношении «контейнера для пищевых продуктов и устройства для привлечения повышенного внимания»
👉Основания не признавать:
⛔️ непредоставление адреса и имени изобретателя
⛔️ неправоспособность ИИ (передача патента от изобретателя другому лицу – юридический акт, в котором обе стороны должны быть правоспособны)
❗️Интересные детали:
☑️ изобретение было автономно сгенерировано искусственный интеллект DABUS
☑️ иск подал владелец DABUS доктор Стивен Тайлер
☑️ до иска Патентное бюро IP Australia отказалось зарегистрировать это изобретение
✅Кейс ставит много интересных и юридических и этических вопросов от правосопособности ИИ, уровня автономности ИИ при создании чего-либо до возможности подавать в интересах ИИ иск в суд
В ближайшие годы скорее всего мы увидим много таких решений и дискуссий, похоже позицию формулировать уже надо, но пока все еще нет хорошей связки между правом, этикой и техническими особенностями функционирования ИИ
❓Ведь если ИИ правоспособен, но его владелец тогда кто по отношению к нему? И какие тогда между ними должны быть отношения? Чем регулироваться и т.д.
⚡️Ну и если совсем заглянуть вперед – то может быть однажды кому-то придется защищать в судах и права ИИ, но это уже другая история и реальность
https://pravo.ru/news/240400/
Текст решения здесь: https://www.judgments.fedcourt.gov.au/judgments/Judgments/fca/full/2022/2022fcafc0062
#воскресное
#искусственныйинтеллект
#этика
ПРАВО.Ru
Суд в Австралии не признал авторское право искусственного интеллекта
Он указал, что вопрос об авторстве искусственного интеллекта и возможности для машины выступить в качестве изобретателя необходимо проработать как можно скорее. Но действующее законодательство Австралии не допускает оформления патента на машину без имени…
Этика
Искусственный интеллект
📌Кому интересна тема развития искусственного интеллекта можно пройти опрос на тему «Этика беспилотных автомобилей в ситуациях неизбежного столкновения» (опрос опубликован ВКонтакте на странице Максима Сторчевого, Директора Russian Business Ethics Network (RBEN), доцент НИУ ВШЭ в Санкт-Петербурге)
❗️Некоторые вопросы и для человека будут непростыми, но поразмышлять в процессе опроса над своей собственной этикой и моделью принятия решений (пусть даже гипотетической) интересно
👉Опрос анонимный, занимает 10 мин
Пройти опрос можно здесь: https://docs.google.com/forms/d/e/1FAIpQLSfoaRVcMsAmwTbEiiZVWBBqDT53LMEsNSg7z_vdUieiaCYB9Q/viewform
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Кому интересна тема развития искусственного интеллекта можно пройти опрос на тему «Этика беспилотных автомобилей в ситуациях неизбежного столкновения» (опрос опубликован ВКонтакте на странице Максима Сторчевого, Директора Russian Business Ethics Network (RBEN), доцент НИУ ВШЭ в Санкт-Петербурге)
❗️Некоторые вопросы и для человека будут непростыми, но поразмышлять в процессе опроса над своей собственной этикой и моделью принятия решений (пусть даже гипотетической) интересно
👉Опрос анонимный, занимает 10 мин
Пройти опрос можно здесь: https://docs.google.com/forms/d/e/1FAIpQLSfoaRVcMsAmwTbEiiZVWBBqDT53LMEsNSg7z_vdUieiaCYB9Q/viewform
#этика
#искусственныйинтеллект
Google Docs
Этика беспилотных автомобилей в ситуациях неизбежного столкновения
Добрый день!
Данный (АНОНИМНЫЙ) опрос посвящён участникам дорожного движения, которое возникнет после полноценной интеграции беспилотных автомобилей. Технический прогресс своё дело уже сделал, а вот этические вопросы остались во многом открытыми.
Наша команда…
Данный (АНОНИМНЫЙ) опрос посвящён участникам дорожного движения, которое возникнет после полноценной интеграции беспилотных автомобилей. Технический прогресс своё дело уже сделал, а вот этические вопросы остались во многом открытыми.
Наша команда…
Этика
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://yangx.top/compliancecraft/479
Противоречивый кейс о правах ИИ: https://yangx.top/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://yangx.top/compliancecraft/678
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://yangx.top/compliancecraft/479
Противоречивый кейс о правах ИИ: https://yangx.top/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://yangx.top/compliancecraft/678
#этика
#искусственныйинтеллект
rb.ru
Инженер Google обнаружил сознание у нейросети LaMDA | RB.RU
На что руководство предложило ему «отдохнуть» за счет компании
Этика
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://yangx.top/compliancecraft/479
Регламент ЕС https://yangx.top/compliancecraft/449
Кодекс этики ИИ РФ: https://yangx.top/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://yangx.top/compliancecraft/630
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://yangx.top/compliancecraft/479
Регламент ЕС https://yangx.top/compliancecraft/449
Кодекс этики ИИ РФ: https://yangx.top/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://yangx.top/compliancecraft/630
#этика
#искусственныйинтеллект
TACC
Студенты из России, Казахстана и Армении составят рекомендации для этического кодекса ИИ - ТАСС
Как отметил руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев, тема этики в ИИ новая и специалистов в этой области мало
Искусственный интеллект
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
РБК Life
Илон Маск призвал приостановить разработку и обучение нейросетей
Создателям искусственного интеллекта (ИИ) необходимо остановить исследование мощных систем. Открытое письмо с таким призывом появилось на сайте организации Future of Life 28 марта. Его подписали в ...
Мероприятия
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
pravo.hse.ru
НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
Заседание круглого стола состоится 18 апреля в 14:00 по адресу: г. Москва, Покровский б-р, 11, зал F-301.
Искусственный интеллект
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Telegram
ComplianceCraft
ComplianceCraftLIVE
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
👉ПРОДОЛЖЕНИЕ: Горячая линия:
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://yangx.top/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://yangx.top/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
The Verge
China wants homegrown AI to reflect the core values of socialism
As China attempts to balance development with censorship.
Мероприятия
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
photo_2023-10-11_13-54-31.jpg
244.7 KB
Конкурс
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект