Этика
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://yangx.top/compliancecraft/479
Противоречивый кейс о правах ИИ: https://yangx.top/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://yangx.top/compliancecraft/678
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://yangx.top/compliancecraft/479
Противоречивый кейс о правах ИИ: https://yangx.top/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://yangx.top/compliancecraft/678
#этика
#искусственныйинтеллект
rb.ru
Инженер Google обнаружил сознание у нейросети LaMDA | RB.RU
На что руководство предложило ему «отдохнуть» за счет компании
Этика
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://yangx.top/compliancecraft/479
Регламент ЕС https://yangx.top/compliancecraft/449
Кодекс этики ИИ РФ: https://yangx.top/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://yangx.top/compliancecraft/630
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://yangx.top/compliancecraft/479
Регламент ЕС https://yangx.top/compliancecraft/449
Кодекс этики ИИ РФ: https://yangx.top/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://yangx.top/compliancecraft/630
#этика
#искусственныйинтеллект
TACC
Студенты из России, Казахстана и Армении составят рекомендации для этического кодекса ИИ - ТАСС
Как отметил руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев, тема этики в ИИ новая и специалистов в этой области мало
Искусственный интеллект
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
РБК Life
Илон Маск призвал приостановить разработку и обучение нейросетей
Создателям искусственного интеллекта (ИИ) необходимо остановить исследование мощных систем. Открытое письмо с таким призывом появилось на сайте организации Future of Life 28 марта. Его подписали в ...
Мероприятия
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
pravo.hse.ru
НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
Заседание круглого стола состоится 18 апреля в 14:00 по адресу: г. Москва, Покровский б-р, 11, зал F-301.
Искусственный интеллект
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Telegram
ComplianceCraft
ComplianceCraftLIVE
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
👉ПРОДОЛЖЕНИЕ: Горячая линия:
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://yangx.top/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://yangx.top/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
The Verge
China wants homegrown AI to reflect the core values of socialism
As China attempts to balance development with censorship.
Мероприятия
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
photo_2023-10-11_13-54-31.jpg
244.7 KB
Конкурс
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Мероприятия
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://yangx.top/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://yangx.top/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://yangx.top/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://yangx.top/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://yangx.top/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Искусственный интеллект
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://yangx.top/compliancecraft/1316
#искусственныйинтеллект
#этика
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://yangx.top/compliancecraft/1316
#искусственныйинтеллект
#этика
Рамблер/новости
Судья в Бразилии составил приговор с ошибками с помощью ChatGPT
Национальный совет юстиции Бразилии расследует дело федерального судьи Джефферсона Феррейра Родригеса, который составил приговор с ошибками с помощью ChatGPT....
Искусственный интеллект
Этика
Комплаенс
📌Драматическая история разворачивается в OpenAI - компании-владельце чат-бота ChatGPT: OpenAI достигла принципиального соглашения о возвращении уволенного советом директоров гендира Альтмана, перешедшего в Microsoft.
👉История вопроса:
☑️OpenAI была создана в 2015 году некоммерческой организацией с прописанным уставом и целями. основателями числятся Илон Маск, Сэм Альтман, Илья Суцкевер, Грег Брокман, Войцех Заремба и Андрей Карпаты
☑️разработчик GPT для ведения коммерческой деятельности организовал «компанию-прокладку» которую и возглавил Альтман. Сейчас в мире существует две компании OpenAI: материнская НКО OpenAI и дочерняя коммерческая OpenAI, которая и стала привлекать инвестиции
☑️Коммерческая OpenAI как разработчик GPT получила 13 млрд инвестиций только от Microsoft
☑️полный контроль над коммерческой OpenAI до сих пор оставался и остается за НКО OpenAI
☑️Накануне увольнения Сэма Альтмана с поста гендиректора OpenAI несколько штатных исследователей компании направили совету директоров письмо с предупреждением о важнейшем открытии в области искусственного интеллекта (ИИ), которое потенциально могло бы угрожать человечеству
☑️17 ноября Альтмана уволили с поста гендиректора OpenAI, после того как совет директоров пришел к выводу, что тот «не был всегда откровенен в своем взаимодействии с советом, что ограничивает его способность выполнять свои обязанности». «У правления больше нет уверенности в его способности возглавлять OpenAI», — говорилось в заявлении совета директоров
☑️После сообщений об увольнении Альтмана акции Microsoft на NASDAQ упали на 7 пунктов одним днем (падение стоимости MSFT на 1,68%)
☑️После ухода Альтмана OpenAI столкнулась с «волной отставок». Его возвращения требовали как инвесторы, так и сотрудники. 700 из 770 работников компании подписали письмо, в котором пригрозили уйти в Microsoft вслед за уволенным гендиректором
✅Можно было бы воспринять все это, только лишь как корпоративный конфликт, которых множество. Но есть несколько моментов, важных для дальнейшего регулирования ИИ:
⚡️ письмо сотрудников на Совет директоров НКО OpenAL «о важнейшем открытии в области искусственного интеллекта (ИИ), которое потенциально могло бы угрожать человечеству» - об этом крайне мало информации
⚡️ на текущий момент весы условно качнулись не в сторону проработки вопросов безопасности и контроля ИИ, а в сторону коммерциализации технологии
⚡️ в США, где разворачивается эта «драма», не существует единого регулирования в сфере ИИ. Разные ведомства имеют свои отдельные правила
❗️И еще: 28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
❓Регулирование ИИ не успевает за развитием технологий, пока нам везет. Но если нам перестанет везти?
Почитайте хронику событий с разных ракурсов:
https://www.rbc.ru/technology_and_media/22/11/2023/655da84c9a794742c9e96326
https://habr.com/ru/companies/itsumma/articles/775082/
https://www.forbes.ru/tekhnologii/500813-kak-sema-al-tmana-uvolili-iz-openai-i-vzali-v-microsoft-i-cto-eto-znacit-dla-rynka-ii
https://vc.ru/chatgpt/924346-turbulentnost-v-openai-hronika-uvolneniya-sema-altmana-i-kommentariy-ilona-maska
Материалы в канале по тематике ИИ:
Некорректное судебное решение с использованием GPT: https://yangx.top/compliancecraft/1320
Эфир в канале по тематике ИИ: https://yangx.top/compliancecraft/1099
ЕС: https://yangx.top/compliancecraft/449
о письме 28.03.23: https://yangx.top/compliancecraft/1091
#искусственныйинтеллект
#этика
#комплаенс
Этика
Комплаенс
📌Драматическая история разворачивается в OpenAI - компании-владельце чат-бота ChatGPT: OpenAI достигла принципиального соглашения о возвращении уволенного советом директоров гендира Альтмана, перешедшего в Microsoft.
👉История вопроса:
☑️OpenAI была создана в 2015 году некоммерческой организацией с прописанным уставом и целями. основателями числятся Илон Маск, Сэм Альтман, Илья Суцкевер, Грег Брокман, Войцех Заремба и Андрей Карпаты
☑️разработчик GPT для ведения коммерческой деятельности организовал «компанию-прокладку» которую и возглавил Альтман. Сейчас в мире существует две компании OpenAI: материнская НКО OpenAI и дочерняя коммерческая OpenAI, которая и стала привлекать инвестиции
☑️Коммерческая OpenAI как разработчик GPT получила 13 млрд инвестиций только от Microsoft
☑️полный контроль над коммерческой OpenAI до сих пор оставался и остается за НКО OpenAI
☑️Накануне увольнения Сэма Альтмана с поста гендиректора OpenAI несколько штатных исследователей компании направили совету директоров письмо с предупреждением о важнейшем открытии в области искусственного интеллекта (ИИ), которое потенциально могло бы угрожать человечеству
☑️17 ноября Альтмана уволили с поста гендиректора OpenAI, после того как совет директоров пришел к выводу, что тот «не был всегда откровенен в своем взаимодействии с советом, что ограничивает его способность выполнять свои обязанности». «У правления больше нет уверенности в его способности возглавлять OpenAI», — говорилось в заявлении совета директоров
☑️После сообщений об увольнении Альтмана акции Microsoft на NASDAQ упали на 7 пунктов одним днем (падение стоимости MSFT на 1,68%)
☑️После ухода Альтмана OpenAI столкнулась с «волной отставок». Его возвращения требовали как инвесторы, так и сотрудники. 700 из 770 работников компании подписали письмо, в котором пригрозили уйти в Microsoft вслед за уволенным гендиректором
✅Можно было бы воспринять все это, только лишь как корпоративный конфликт, которых множество. Но есть несколько моментов, важных для дальнейшего регулирования ИИ:
⚡️ письмо сотрудников на Совет директоров НКО OpenAL «о важнейшем открытии в области искусственного интеллекта (ИИ), которое потенциально могло бы угрожать человечеству» - об этом крайне мало информации
⚡️ на текущий момент весы условно качнулись не в сторону проработки вопросов безопасности и контроля ИИ, а в сторону коммерциализации технологии
⚡️ в США, где разворачивается эта «драма», не существует единого регулирования в сфере ИИ. Разные ведомства имеют свои отдельные правила
❗️И еще: 28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
❓Регулирование ИИ не успевает за развитием технологий, пока нам везет. Но если нам перестанет везти?
Почитайте хронику событий с разных ракурсов:
https://www.rbc.ru/technology_and_media/22/11/2023/655da84c9a794742c9e96326
https://habr.com/ru/companies/itsumma/articles/775082/
https://www.forbes.ru/tekhnologii/500813-kak-sema-al-tmana-uvolili-iz-openai-i-vzali-v-microsoft-i-cto-eto-znacit-dla-rynka-ii
https://vc.ru/chatgpt/924346-turbulentnost-v-openai-hronika-uvolneniya-sema-altmana-i-kommentariy-ilona-maska
Материалы в канале по тематике ИИ:
Некорректное судебное решение с использованием GPT: https://yangx.top/compliancecraft/1320
Эфир в канале по тематике ИИ: https://yangx.top/compliancecraft/1099
ЕС: https://yangx.top/compliancecraft/449
о письме 28.03.23: https://yangx.top/compliancecraft/1091
#искусственныйинтеллект
#этика
#комплаенс
РБК
OpenAI объявила о возвращении уволенного Альтмана на пост гендиректора
OpenAI достигла принципиального соглашения о возвращении уволенного советом директоров гендира Альтмана, перешедшего в Microsoft. Его возвращения требовали сотрудники, они пригрозили уйти за ним
ComplianceCraft
Мероприятия Искусственный интеллект Этика 📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» 👉Среди рассматриваемых вопросов: ☑️межкультурный взгляд на глобальные вызовы развития ИИ ☑️влияние…
Искусственный интеллект
Этика
Продолжая сегодня тему ИИ, прилагаю несколько слайдов с Форума, которые показались полезными и интересными
Кого тема касается непосредственно - стоит отсмотреть все и подробно изучить «Этические рекомендации по применению рекомендательных технологий и алгоритмов, основанных на искусственном интеллекте, в цифровых сервисах»👇
Запись доступна по ссылке https://www.aiethic.ru/
#искусственныйинтеллект
#этика
Этика
Продолжая сегодня тему ИИ, прилагаю несколько слайдов с Форума, которые показались полезными и интересными
Кого тема касается непосредственно - стоит отсмотреть все и подробно изучить «Этические рекомендации по применению рекомендательных технологий и алгоритмов, основанных на искусственном интеллекте, в цифровых сервисах»👇
Запись доступна по ссылке https://www.aiethic.ru/
#искусственныйинтеллект
#этика
Искусственный интеллект
Комплаенс
Безопасность
📌В рамках ноябрьской конференции «AI SAFETY SUMMIT» в Великобритании произошло 2 важных события:
1️⃣Декларацию по рискам и возможностям искусственного интеллекта подписали 28 стран, т.н. The Bletchley Declaration by Countries Attending the AI Safety Summit (включая США, UK и Китай)
2️⃣В UK создан правительственный Институт безопасности ИИ (AI Safety Institute)
1️⃣В рамках Декларации выделены следующие планы стран-участниц:
☑️ выявление рисков безопасности ИИ, вызывающих общую озабоченность, формирование общего научного и основанного на фактических данных понимания этих рисков и поддержание этого понимания
☑️ разработка соответствующей политики, основанной на оценке рисков: повышение прозрачности со стороны частных субъектов, развитие передовых возможностей искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности и развитие соответствующего потенциала государственного сектора и научных исследований
❗️Страны-участники приняли на себя обязательство совместно разработать независимый и всеобъемлющий отчет "О состоянии науки". ➡️Отчет будет разрабатываться под руководством Йошуа Бенгио, ученому в области искусственного интеллекта, удостоенному премии Тьюринга, и члену Научно-консультативного совета ООН
➡️Отчет подготовит Экспертно-консультативная группа, состоящая из представителей стран, участвующих в Саммите, и других стран-партнеров, он будет опубликован в преддверии следующего саммита по безопасности AI в 2024
👉Цель Отчета:
✔️ способствовать общему научно обоснованному пониманию рисков, связанных с ИИ (frontier AI)
✔️ обобщение лучшего из существующих исследований и определены приоритетные области исследований, обеспечивая синтез существующих знаний о рисках frontier AI.
2️⃣В отношении Института безопасности ИИ
☑️ создан в публичном интересе
☑️ не является регулятором и не определяет правила государственного регулирования
☑️ создан как глобальный хаб по вопросам исследований в области безопасности ИИ
👉Основные направления работы института:
1️⃣Риски двойного назначения использования ИИ
2️⃣Социальные последствия
3️⃣Безопасность и защищенность систем
4️⃣Потеря контроля (над технологией)
👉Институт анонсировал проведение исследований по следующей тематике:
✔️Создание продуктов для управления ИИ (включая разработку нормативно-правовой базы и проверки комплаенс-систем в области управления ИИ)
✔️Совершенствование науки оценок
✔️Новые подходы к более безопасным системам ИИ
❗️Документ о создании института содержит набор определений:
- ИИ (Artificial Intelligence)
- Машинное обучение (Machine Learning)
- Система ИИ (AI system)
- Продвинутый/передовой ИИ (Advanced/frontier AI)
- Безопасность ИИ (AI safety)
- Защищенность систем ИИ (AI security)
✅Пока эти документы только намерения, но если все планы будут выполнены, вероятнее всего через несколько лет мы окажемся в другом комплаенс-мире с новыми экстерриториальными правилами в отношении ИИ, подходов регулирования и комплаенс-систем.
https://ria.ru/20231101/ii-1906737416.html
👉Информация об Институте безопасности ИИ в UK: https://assets.publishing.service.gov.uk/media/65438d159e05fd0014be7bd9/introducing-ai-safety-institute-web-accessible.pdf
👉Текст Декларации: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
👉Комментарии в отношении прошедшего саммита от эксперта Олега Яновского, преподавателя кафедры политической теории МГИМО (❗️очень рекомендую послушать целиком): https://dzen.ru/video/watch/656f19d2649b955cd36cadf6
👉О российском форуме «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» в ноябре 2023: https://yangx.top/compliancecraft/1331
#искусственныйинтеллект
#комплаенс
#безопасность
Комплаенс
Безопасность
📌В рамках ноябрьской конференции «AI SAFETY SUMMIT» в Великобритании произошло 2 важных события:
1️⃣Декларацию по рискам и возможностям искусственного интеллекта подписали 28 стран, т.н. The Bletchley Declaration by Countries Attending the AI Safety Summit (включая США, UK и Китай)
2️⃣В UK создан правительственный Институт безопасности ИИ (AI Safety Institute)
1️⃣В рамках Декларации выделены следующие планы стран-участниц:
☑️ выявление рисков безопасности ИИ, вызывающих общую озабоченность, формирование общего научного и основанного на фактических данных понимания этих рисков и поддержание этого понимания
☑️ разработка соответствующей политики, основанной на оценке рисков: повышение прозрачности со стороны частных субъектов, развитие передовых возможностей искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности и развитие соответствующего потенциала государственного сектора и научных исследований
❗️Страны-участники приняли на себя обязательство совместно разработать независимый и всеобъемлющий отчет "О состоянии науки". ➡️Отчет будет разрабатываться под руководством Йошуа Бенгио, ученому в области искусственного интеллекта, удостоенному премии Тьюринга, и члену Научно-консультативного совета ООН
➡️Отчет подготовит Экспертно-консультативная группа, состоящая из представителей стран, участвующих в Саммите, и других стран-партнеров, он будет опубликован в преддверии следующего саммита по безопасности AI в 2024
👉Цель Отчета:
✔️ способствовать общему научно обоснованному пониманию рисков, связанных с ИИ (frontier AI)
✔️ обобщение лучшего из существующих исследований и определены приоритетные области исследований, обеспечивая синтез существующих знаний о рисках frontier AI.
2️⃣В отношении Института безопасности ИИ
☑️ создан в публичном интересе
☑️ не является регулятором и не определяет правила государственного регулирования
☑️ создан как глобальный хаб по вопросам исследований в области безопасности ИИ
👉Основные направления работы института:
1️⃣Риски двойного назначения использования ИИ
2️⃣Социальные последствия
3️⃣Безопасность и защищенность систем
4️⃣Потеря контроля (над технологией)
👉Институт анонсировал проведение исследований по следующей тематике:
✔️Создание продуктов для управления ИИ (включая разработку нормативно-правовой базы и проверки комплаенс-систем в области управления ИИ)
✔️Совершенствование науки оценок
✔️Новые подходы к более безопасным системам ИИ
❗️Документ о создании института содержит набор определений:
- ИИ (Artificial Intelligence)
- Машинное обучение (Machine Learning)
- Система ИИ (AI system)
- Продвинутый/передовой ИИ (Advanced/frontier AI)
- Безопасность ИИ (AI safety)
- Защищенность систем ИИ (AI security)
✅Пока эти документы только намерения, но если все планы будут выполнены, вероятнее всего через несколько лет мы окажемся в другом комплаенс-мире с новыми экстерриториальными правилами в отношении ИИ, подходов регулирования и комплаенс-систем.
https://ria.ru/20231101/ii-1906737416.html
👉Информация об Институте безопасности ИИ в UK: https://assets.publishing.service.gov.uk/media/65438d159e05fd0014be7bd9/introducing-ai-safety-institute-web-accessible.pdf
👉Текст Декларации: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
👉Комментарии в отношении прошедшего саммита от эксперта Олега Яновского, преподавателя кафедры политической теории МГИМО (❗️очень рекомендую послушать целиком): https://dzen.ru/video/watch/656f19d2649b955cd36cadf6
👉О российском форуме «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» в ноябре 2023: https://yangx.top/compliancecraft/1331
#искусственныйинтеллект
#комплаенс
#безопасность
Кино
Этика
Искусственный интеллект
1️⃣Короткометражка студентов «По контуру лица» на подумать:
🌲О ценности человеческого общения
🎄 О цене одиночества
🎄О вероятностном (социальный рейтинг и прочие вариации) развитии
https://youtu.be/Ech4fD8wQUk?si=2dAvhVwxiNckJnn0
2️⃣ необычно, мрачно, брутально - Мельница (The mill)
А если докрутить корпоративные правила до:
🎄абсурда
🎄 непробиваемой четкости
🎄вовлечения ИИ
😉😉😉
https://vk.com/video-192544707_456264710
p.s. Для всех кому надоели новогодние (салаты) фильмы 😉
#кино
#этика
#искусственныйинтеллект
#ии
Этика
Искусственный интеллект
1️⃣Короткометражка студентов «По контуру лица» на подумать:
🌲О ценности человеческого общения
🎄 О цене одиночества
🎄О вероятностном (социальный рейтинг и прочие вариации) развитии
https://youtu.be/Ech4fD8wQUk?si=2dAvhVwxiNckJnn0
2️⃣ необычно, мрачно, брутально - Мельница (The mill)
А если докрутить корпоративные правила до:
🎄абсурда
🎄 непробиваемой четкости
🎄вовлечения ИИ
😉😉😉
https://vk.com/video-192544707_456264710
p.s. Для всех кому надоели новогодние (салаты) фильмы 😉
#кино
#этика
#искусственныйинтеллект
#ии
YouTube
По контуру лица сильный короткометражный фильм
Этика
Искусственный интеллект
📌Илон Маск подал в суд на компанию OpenAI, которая занимается разработкой искусственного интеллекта, ее гендиректора и президента, из-за коммерциализации проекта
👉Суть претензии:
🛑OpenAI была преобразована в де-факто дочернюю компанию Microsoft с закрытым исходным кодом
🛑Новое правление OpenAI совершенствует искусственный интеллект (AGI), чтобы «максимизировать прибыль для Microsoft, а не на благо человечества»
🛑детали GPT-4 известны только OpenAI и, по имеющейся информации, Microsoft. Следовательно, GPT-4 является противоположностью «открытого ИИ» и, таким образом, GPT-4 закрыта по коммерческим соображениям Microsoft
🛑нарушение контракта и недобросовестную деловую практику и просит компанию вернуться к открытому исходному коду
🛑компания «исказила» цели и задачи, которые были поставлены при ее основании
👉В обеспечение иска:
Маск запросил судебный запрет, чтобы помешать OpenAI, Брокману, Альтману и Microsoft получать прибыль от технологии AGI📍 компании
👉История OpenAI:
☑️OpenAI была создана в 2015 году некоммерческой организацией с прописанным уставом и целями. основателями числятся Илон Маск, Сэм Альтман, Илья Суцкевер, Грег Брокман, Войцех Заремба и Андрей Карпаты
☑️разработчик GPT для ведения коммерческой деятельности организовал «компанию-прокладку» которую и возглавил Альтман. Сейчас в мире существует две компании OpenAI: материнская НКО OpenAI и дочерняя коммерческая OpenAI, которая и стала привлекать инвестиции
☑️Коммерческая OpenAI как разработчик GPT получила 13 млрд инвестиций только от Microsoft
☑️полный контроль над коммерческой OpenAI до сих пор оставался и остается за НКО OpenAI
☑️В ноябре 2023 года OpenAI достигла принципиального соглашения о возвращении уволенного советом директоров гендира Альтмана, перешедшего в Microsoft
⚡️⚡️⚡️28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
📍Artificial General Intelligence или AGI – это сильный искусственный интеллект общего уровня, который способен мыслить и действовать, как человек
🖌Цитата с сайта OpenAI:
«Наша миссия заключается в обеспечении того, чтобы искусственный общий интеллект — системы искусственного интеллекта, которые, как правило, умнее людей, — приносили пользу всему человечеству»
✅Вопрос сейчас не в юридических перспективах этого иска (думаю коллеги-юристы еще много раз будут комментировать ход этого процесса), здесь скорее интересен этический аспект и аспект добросовестности:
✔️Историй с НКО с благородными целями много
✔️Историй, когда кто-то в НКО начинает вести себя недобросовестно и действует либо в своих личных интересах либо в интересах третьих лиц в разрез смысла и идеи деятельности НКО – тоже много
✔️Историй, когда у учредителей НКО денег меньше на юристов чем у Маска – больше всего – и тогда чаще всего недобросовестные действия менеджмента НКО остаются безнаказанными
✔️Каким будет вердикт суда – очень интересно, учитывая, что здесь все перемешано: и этика, и благородные цели и добросовестность и коммерческие интересы
➡️Историй, которые могут (потенциально) причинить вред человечеству как бы много, но вокруг ИИ пока слишком много всего не сделано:
❓ до конца неясен масштаб рисков (пока многим страшно, а кому-то все равно в погоне за прибылью)
❓ отсутствует (у всех стран) ясное и достаточное регулирование ИИ и рисков его использования
❗️В любом случае это знаковое дело и будем за ним наблюдать
https://www.rbc.ru/technology_and_media/01/03/2024/65e213439a7947a819b19faf?from=copy
🖇Материалы из канала:
👉Об истории увольнения Альтмана в ноябре 2023: https://yangx.top/compliancecraft/1329
👉О декларации по рискам ИИ: https://yangx.top/compliancecraft/1362
👉О регулировании этики ИИ в РФ: https://yangx.top/compliancecraft/1331 (также смотрите пост о Кодексе ИИ в РФ от RBEN по этой части: https://yangx.top/rben_official/19)
👉о письме 28.03.23: https://yangx.top/compliancecraft/1091
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Илон Маск подал в суд на компанию OpenAI, которая занимается разработкой искусственного интеллекта, ее гендиректора и президента, из-за коммерциализации проекта
👉Суть претензии:
🛑OpenAI была преобразована в де-факто дочернюю компанию Microsoft с закрытым исходным кодом
🛑Новое правление OpenAI совершенствует искусственный интеллект (AGI), чтобы «максимизировать прибыль для Microsoft, а не на благо человечества»
🛑детали GPT-4 известны только OpenAI и, по имеющейся информации, Microsoft. Следовательно, GPT-4 является противоположностью «открытого ИИ» и, таким образом, GPT-4 закрыта по коммерческим соображениям Microsoft
🛑нарушение контракта и недобросовестную деловую практику и просит компанию вернуться к открытому исходному коду
🛑компания «исказила» цели и задачи, которые были поставлены при ее основании
👉В обеспечение иска:
Маск запросил судебный запрет, чтобы помешать OpenAI, Брокману, Альтману и Microsoft получать прибыль от технологии AGI📍 компании
👉История OpenAI:
☑️OpenAI была создана в 2015 году некоммерческой организацией с прописанным уставом и целями. основателями числятся Илон Маск, Сэм Альтман, Илья Суцкевер, Грег Брокман, Войцех Заремба и Андрей Карпаты
☑️разработчик GPT для ведения коммерческой деятельности организовал «компанию-прокладку» которую и возглавил Альтман. Сейчас в мире существует две компании OpenAI: материнская НКО OpenAI и дочерняя коммерческая OpenAI, которая и стала привлекать инвестиции
☑️Коммерческая OpenAI как разработчик GPT получила 13 млрд инвестиций только от Microsoft
☑️полный контроль над коммерческой OpenAI до сих пор оставался и остается за НКО OpenAI
☑️В ноябре 2023 года OpenAI достигла принципиального соглашения о возвращении уволенного советом директоров гендира Альтмана, перешедшего в Microsoft
⚡️⚡️⚡️28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
📍Artificial General Intelligence или AGI – это сильный искусственный интеллект общего уровня, который способен мыслить и действовать, как человек
🖌Цитата с сайта OpenAI:
«Наша миссия заключается в обеспечении того, чтобы искусственный общий интеллект — системы искусственного интеллекта, которые, как правило, умнее людей, — приносили пользу всему человечеству»
✅Вопрос сейчас не в юридических перспективах этого иска (думаю коллеги-юристы еще много раз будут комментировать ход этого процесса), здесь скорее интересен этический аспект и аспект добросовестности:
✔️Историй с НКО с благородными целями много
✔️Историй, когда кто-то в НКО начинает вести себя недобросовестно и действует либо в своих личных интересах либо в интересах третьих лиц в разрез смысла и идеи деятельности НКО – тоже много
✔️Историй, когда у учредителей НКО денег меньше на юристов чем у Маска – больше всего – и тогда чаще всего недобросовестные действия менеджмента НКО остаются безнаказанными
✔️Каким будет вердикт суда – очень интересно, учитывая, что здесь все перемешано: и этика, и благородные цели и добросовестность и коммерческие интересы
➡️Историй, которые могут (потенциально) причинить вред человечеству как бы много, но вокруг ИИ пока слишком много всего не сделано:
❓ до конца неясен масштаб рисков (пока многим страшно, а кому-то все равно в погоне за прибылью)
❓ отсутствует (у всех стран) ясное и достаточное регулирование ИИ и рисков его использования
❗️В любом случае это знаковое дело и будем за ним наблюдать
https://www.rbc.ru/technology_and_media/01/03/2024/65e213439a7947a819b19faf?from=copy
🖇Материалы из канала:
👉Об истории увольнения Альтмана в ноябре 2023: https://yangx.top/compliancecraft/1329
👉О декларации по рискам ИИ: https://yangx.top/compliancecraft/1362
👉О регулировании этики ИИ в РФ: https://yangx.top/compliancecraft/1331 (также смотрите пост о Кодексе ИИ в РФ от RBEN по этой части: https://yangx.top/rben_official/19)
👉о письме 28.03.23: https://yangx.top/compliancecraft/1091
#этика
#искусственныйинтеллект
РБК
Илон Маск подал в суд на OpenAI и ее создателя Сэма Альтмана
Илон Маск подал в суд на компанию OpenAI, которая занимается разработкой искусственного интеллекта, ее гендиректора и президента, из-за коммерциализации проекта. Бизнесмен покинул совет директоров
Этика
Искусственный интеллект
Отличная подборка материалов от коллег из RBEN👇
#этика
#искусственныйинтеллект
Искусственный интеллект
Отличная подборка материалов от коллег из RBEN👇
#этика
#искусственныйинтеллект
❇️ПРЕЗЕНТАЦИЯ НАЦИОНАЛЬНОГО СТАНДАРТА «ИНДЕКС ДЕЛОВОЙ РЕПУТАЦИИ (ЭКГ-РЕЙТИНГ)» (07 июня, 12:00–13:00) - https://forumspb.com/programme/business-programme/123883/
День 4️⃣
❇️ЧУВСТВИТЕЛЬНЫЕ ДАННЫЕ: ТРАНСФОРМАЦИЯ АНАЛИЗА ПОТРЕБИТЕЛЬСКОГО РЫНКА, КОНСАЛТИНГА И АУДИТА В РОССИИ (08 июня, 12:00–13:15) - https://forumspb.com/programme/business-programme/123892/
#мероприятия
#комплаенс
#искусственныйинтеллект
#информационнаябезопасность
#фарма
#устойчивоеразвитие
#этика
День 4️⃣
❇️ЧУВСТВИТЕЛЬНЫЕ ДАННЫЕ: ТРАНСФОРМАЦИЯ АНАЛИЗА ПОТРЕБИТЕЛЬСКОГО РЫНКА, КОНСАЛТИНГА И АУДИТА В РОССИИ (08 июня, 12:00–13:15) - https://forumspb.com/programme/business-programme/123892/
#мероприятия
#комплаенс
#искусственныйинтеллект
#информационнаябезопасность
#фарма
#устойчивоеразвитие
#этика
Шталь_текст_сайт.pdf
314.9 KB
Книги
Этика
Искусственный интеллект
📌В издательстве ВШЭ вышла книга Бернд Карстен Шталь, Дорис Шредер и Ровены Родригес «Этика искусственного интеллекта. Кейсы и варианты решения этических проблем» с интересным обзором кейсов и вариантов решения этических проблем
👉Рассмотрены кейсы по следующим направлениям:
☑️Кейсы по дискриминации, которой способствовал ИИ
☑️Кейсы нарушения неприкосновенности частной жизни
☑️Кейсы надзорного капитализма, использующего ИИ
☑️Кейсы манипулированию при помощи ИИ
☑️Кейсы, в которых ИИ негативно влияет на право на жизнь, свободу и личную безопасность
☑️Кейсы с потенциальным конфликтом между ИИ и человеческим достоинством
Приносит ли «ИИ во благо» благо?
👉Купить можно в магазинах Вышки или (как вариант) здесь: https://www.ozon.ru/product/etika-iskusstvennogo-intellekta-keysy-i-varianty-resheniya-eticheskih-problem-1597456516/
🖇Краткий обзор с оглавлением прилагаю
#книги
#этика
#искусственныйинтеллект
#ии
Этика
Искусственный интеллект
📌В издательстве ВШЭ вышла книга Бернд Карстен Шталь, Дорис Шредер и Ровены Родригес «Этика искусственного интеллекта. Кейсы и варианты решения этических проблем» с интересным обзором кейсов и вариантов решения этических проблем
👉Рассмотрены кейсы по следующим направлениям:
☑️Кейсы по дискриминации, которой способствовал ИИ
☑️Кейсы нарушения неприкосновенности частной жизни
☑️Кейсы надзорного капитализма, использующего ИИ
☑️Кейсы манипулированию при помощи ИИ
☑️Кейсы, в которых ИИ негативно влияет на право на жизнь, свободу и личную безопасность
☑️Кейсы с потенциальным конфликтом между ИИ и человеческим достоинством
Приносит ли «ИИ во благо» благо?
👉Купить можно в магазинах Вышки или (как вариант) здесь: https://www.ozon.ru/product/etika-iskusstvennogo-intellekta-keysy-i-varianty-resheniya-eticheskih-problem-1597456516/
🖇Краткий обзор с оглавлением прилагаю
#книги
#этика
#искусственныйинтеллект
#ии
✅Менеджмент:
Современные тренды юридического менеджмента и консалтинга: https://roscongress.org/sessions/splf-2024-delovaya-programma-sovremennye-trendy-yuridicheskogo-menedzhmenta-i-konsaltinga/translation/#
✅Противодействие мошенничеству:
Доверие при дистанционных коммуникациях. Как защитить себя от мошенничества и социальной инженерии: https://roscongress.org/sessions/splf-2024-delovaya-programma-doverie-pri-distantsionnykh-kommunikatsiyakh-kak-zashchitit-sebya-ot-moshennichestva-v-sotsialnoy-in/translation/#
❗️Остальные трансляции сессий здесь: https://roscongress.org/events/xii-peterburgskiy-mezhdunarodnyy-yuridicheskiy-forum/sessions/
#мероприятия
#антикоррупционныйкомплаенс
#антимонопольныйкомплаенс
#санкционныйкомплаенс
#оценкарисков
#искусственныйинтеллект
#маркетплейс
#ии
Современные тренды юридического менеджмента и консалтинга: https://roscongress.org/sessions/splf-2024-delovaya-programma-sovremennye-trendy-yuridicheskogo-menedzhmenta-i-konsaltinga/translation/#
✅Противодействие мошенничеству:
Доверие при дистанционных коммуникациях. Как защитить себя от мошенничества и социальной инженерии: https://roscongress.org/sessions/splf-2024-delovaya-programma-doverie-pri-distantsionnykh-kommunikatsiyakh-kak-zashchitit-sebya-ot-moshennichestva-v-sotsialnoy-in/translation/#
❗️Остальные трансляции сессий здесь: https://roscongress.org/events/xii-peterburgskiy-mezhdunarodnyy-yuridicheskiy-forum/sessions/
#мероприятия
#антикоррупционныйкомплаенс
#антимонопольныйкомплаенс
#санкционныйкомплаенс
#оценкарисков
#искусственныйинтеллект
#маркетплейс
#ии
Росконгресс
Противодействие коррупции
Противодействие коррупции - Трансляция. Фонд Росконгресс – социально ориентированный нефинансовый институт развития, крупнейший организатор общероссийских, международных, конгрессных, выставочных, деловых, общественных, молодежных, спортивных мероприятий…