Школа МИБ
1.05K subscribers
497 photos
8 videos
55 files
339 links
Школа международной информационной безопасности Института актуальных международных проблем Дипломатической академии МИД России (Школа МИБ).

Наша страница ВКонтакте https://vk.com/iis_school

По вопросам сотрудничества: [email protected]
加入频道
«Эпоха искусственного интеллекта началась»🤖

Школа МИБ начинает публикацию серии лонгридов, посвященных искусственному интеллекту. В этой серии постов мы рассмотрим основные угрозы и риски, связанные с ИИ и попытаемся понять, как эти угрозы могут повлиять на наше будущее.

Мы обсудим такие вопросы, как:

- Что такое искусственный интеллект и как он работает?
- Какие угрозы и риски существуют в области ИИ?
- Какие меры можно принять для минимизации рисков, связанных с использованием ИИ?

В первом материале серии вы узнаете базовые понятия, классификацию и ключевую терминологию ИИ.

#МИБ_ликбез #ИИ #AI
Школа МИБ провела круглый стол «Развитие технологий ИИ и риски для международной информационной безопасности: технические аспекты»

🌐 20 июня в Институте актуальных международных проблем Дипломатической академии МИД России состоялся второй круглый стол «Развитие технологий ИИ и риски для международной информационной безопасности: технические аспекты», а также мозговой штурм по его итогам.

👥 Ключевыми спикерами круглого стола стали Самойлов Вячеслав Евгеньевич, кандидат технических наук, и.о. заведующего кафедрой Международной информационной безопасности Московского государственного лингвистического университета, и Мельник Сергей Владиславович, кандидат технических наук, руководитель рабочей группы «Сертификация и метрология» в Международной академии связи.

📣 Результаты групповой аналитической работы по итогам первого и второго круглых столов будут опубликованы в формате доклада в ближайшее время.

Благодарим слушателей Школы МИБ за активное участие!

#МероприятияМИБ #ШколаМИБ #ИИ
🇺🇳 ЮНЕСКО: руководство по использованию ИИ в образовании

Еще один призыв к регулированию генеративного ИИ исходит от ЮНЕСКО с ее руководством по генеративному ИИ в школьном образовании и научных исследованиях. Согласно руководству, правительства должны незамедлительно предпринять шаги по защите конфиденциальности данных и ввести возрастные ограничения (минимальный возрастной ценз составляет 13 лет) для пользователей.

Почему это так важно?

В настоящее время большинство образовательных учреждений по всему миру сталкиваются с проблемой внедрения искусственного интеллекта в образовательные процессы и контроля за ним. В дополнение к дилемме о внедрении и регулировании ИИ, текущие его модели, такие как ChatGPT, обучаются на данных онлайн-пользователей. Получаемые сведения в основном отражают ценности и социальные нормы Глобального Севера и, следовательно, могут увеличить цифровой разрыв.

#Информационная_безопасность #Школа_МИБ #Новости_МИБ #ЧтоПочитать_МИБ #Искусственный_интеллект #ИИ #UNESCO
🇺🇳Понимание рисков и выстраивание путей к принятию мер по укреплению доверия

Данный исследовательский отчет предлагает таксономию рисков искусственного интеллекта (ИИ) в контексте международного мира и безопасности. Он является частью проекта ЮНИДИР по мерам укрепления доверия в области ИИ и направлен на составление карты рисков, связанных с технологией, которая может послужить основой для будущих обсуждений и выработки мер укрепления доверия. Таксономия классифицирует риски на две большие группы:

1️⃣Риски технологии ИИ, которые включают риски безопасности (возможности и ограничения систем ИИ), риски безопасности (преднамеренные атаки, направленные на то, чтобы скомпрометировать способ обучения или действия систем ИИ) и риски взаимодействия между человеком и машиной (неправильное использование систем ИИ из-за сложных динамик, возникающих при работе с ними).

2️⃣Риски ИИ для глобальной безопасности, которые включают три широкие категории рисков: ошибки расчета (использование ИИ, которое может привести к принятию решений о применении силы или открывать путь к ухудшению международных отношений), эскалация (потенциал ИИ привести к преднамеренному или непреднамеренному эскалированию конфликта) и распространение (риски неправильного использования ИИ для распространения нового оружия, включая оружие массового поражения).

Отчет предоставляет технические разъяснения о различных категориях рисков и контекстуальный анализ их потенциального влияния на глобальную безопасность. В настоящее время он не предоставляет варианты для дискуссий о будущих мерах доверия и не ставит целью определение приоритетных областей в отношении конкретных рисков. Отчет предоставляет руководство для понимания рисков, которое может стать основой для будущих дискуссий.

#Школа_МИБ #ЮНИДИР #Информационная_безопасность #AI #ИИ #ЧтоПочитать_МИБ
Please open Telegram to view this post
VIEW IN TELEGRAM
🇪🇺EC на пути принятия первого закона о регулировании ИИ

Страны - члены Евросоюза и Европарламент достигли соглашения по закону о регулировании ИИ. Данный закон является одной из самых первых попыток юридически регламентировать использование ИИ.

Как заявляется, важность данного документа заключается в том, что он имеет потенциал установить новые ориентиры для стран, которые стремятся оградить себя от возможных рисков его использования: автоматизации рабочих мест, распространения дезинформации в Интернете и угрозы национальной безопасности. Стоит отметить, что он является широко критикуется. Помимо этого, закону необходимо пройти ещё несколько заключительных стадий утверждения. Как ожидается, это может произойти в 2026 году, хотя некоторые положения начнут действовать раньше.

Закон распределяет приложения ИИ по трем категориям риска:

1️⃣Приложения и системы, которые создают прямой риск, такие как управляемый правительством социальный скоринг, используемый в Китае, данные системы запрещаются;

2️⃣Приложения с высоким уровнем риска, такие как инструмент сканирования резюме, который ранжирует соискателей на работу, они подпадают под особые требования законодательства;

3️⃣Приложения, которые явно не запрещены или не включены в список приложений с высоким уровнем риска, такие в значительной степени остаются нерегулируемыми.

Отмечается, что европейские законодатели сосредоточили свое внимание на наиболее уязвимых сферах применения ИИ. Создатели крупнейших систем ИИ (например, чат-бот ChatGPT) столкнутся с новыми требованиями к прозрачности. Чат-боты и ПО, создающее “deep-fakes”, должны будут четко указывать, что изображение было сгенерировано ИИ, согласно проекту закона. Также будут введены ограничения на использование ИИ правоохранительными органами для распознавания лиц. В случае злоупотребления, компаниям грозят штрафы.

С краткой презентацией закона, подготовленной Европейской комиссией, можно ознакомиться здесь.

#ШколаМИБ #НовостиМИБ #ИИ #ЕС
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠II Глобальный форум по этике ИИ

🌎5 и 6 февраля 2024 г. в Словении состоялся 2-й Глобальный форум по этике искусственного интеллекта, проводимый под эгидой ЮНЕСКО.

💬Дискуссии были сосредоточены вокруг проблематики международного сотрудничества и создания этических принципов и стандартов. Эти меры, как заявляется, призваны направлять разработку и применение ИИ, обеспечивая его соответствие глобальному благосостоянию и человеческим ценностям.

📌В ходе форума ЮНЕСКО запустила ряд новых инициатив, включая сеть Экспертов по этике искусственного интеллекта без границ и Глобальную обсерваторию по этике ИИ.

📌Помимо этого, в ходе форума 8 технологических компаний в своем совместном заявлении «Приверженность компаний частного сектора сотрудничеству с ЮНЕСКО в создании этичного и ответственного ИИ» обязались создавать «более этичный» ИИ. Обязательство также включает усилия фирм по укреплению своих технических возможностей в области этики и искусственного интеллекта, такие как разработка и внедрение рекомендованного ЮНЕСКО «Инструмента оценки этического воздействия». Сотрудничество между государственным и частным секторами позиционируется как ключ к использованию ИИ на общее благо.

Расскажем подробнее об упомянутых инициативах в наших дальнейших постах.

#ШколаМИБ #Новости_МИБ #Новости_ИИ #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳Большие языковые модели и международная безопасность

📆 16 апреля 2024 г. Институт Организации Объединенных Наций по исследованию проблем разоружения (ЮНИДИР) проведет свое первое мероприятие, посвященное большим языковым моделям и международной безопасности.

⚙️ Большие языковые модели (LLM) - это системы искусственного интеллекта, которые работают с языком. С 2022 года популярность LLM значительно возросла благодаря быстрому повышению производительности и простоте использования в различных областях. LLM работают как базовые модели, что означает, что они обладают широкими возможностями, масштабируемы и могут быть адаптированы к моделям, специфичным для конкретных задач.

Влияние LLM на международную безопасность заслуживает своевременного и более тщательного изучения. Хотя уже высказывались некоторые опасения в связи с потенциальным использованием LLM для проведения широкомасштабных кампаний по дезинформации, области применения этой технологии гораздо шире, как и возможные риски, что вызывает серьезные опасения.

На мероприятии будет представлен обзор значения LLM для международной безопасности, а также рассмотрены возникающие области рисков.

📎 Более подробная информация по ссылке.

🌐 Формат: онлайн.

🕐 Время: 17:30 -18:45 по московскому времени.

ℹ️ Для участия в конференции необходимо зарегистрироваться по ссылке до 15 апреля.

#Школа_МИБ #Мероприятия_ИИ #ИИ #Языковыемодели #ЮНИДИР
Please open Telegram to view this post
VIEW IN TELEGRAM
AI,_data_governance,_and_privacy_Synergies_and_areas_of_international.pdf
1.7 MB
🌐 Доклад ОЭСР по ИИ, управлению данными и конфиденциальности

🧠 26 июня 2024 года ОЭСР в рамках серии «OECD Artificial Intelligence Papers» выпустила доклад «ИИ, управление данными и конфиденциальность: взаимодействие и области международного сотрудничества».

❗️Недавние достижения в области ИИ, такие как появление генеративного ИИ, подняли важные вопросы об использовании входных и выходных данных, качестве данных и доступности обучающих данных для моделей ИИ. Эти проблемы подчеркивают необходимость защиты прав и интересов всех вовлеченных сторон, особенно отдельных лиц, чьи данные собираются, используются и генерируются ИИ-системами.

💬В докладе исследуется взаимосвязь ИИ и конфиденциальности, а также способы, с помощью которых соответствующие политические сообщества могут работать для устранения рисков в данной сфере, особенно в связи с появлением генеративного ИИ. Также представлены ключевые выводы и рекомендации по укреплению взаимодействия международного сотрудничества в области ИИ, управления данными и конфиденциальности.

🔃Авторы доклада сопоставляют принципы, изложенные в Руководстве ОЭСР по обеспечению конфиденциальности, с Руководящими принципами ОЭСР по ИИ, и анализируют национальные и региональные инициативы, и предлагают потенциальные области для сотрудничества.

🛡В заключении подчеркивается важность интеграции достижений в области ИИ с надежными мерами по управлению данными и защите конфиденциальности. Согласно докладу, такой целостный подход имеет решающее значение для обеспечения того, чтобы ИИ-технологии можно было использовать для инноваций, одновременно защищая права личности и укрепляя доверие общественности к приложениям искусственного интеллекта.

#ШколаМИБ #ОЭСР #искусственныйинтеллект #ИИ #конфиденциальность #защитаданных
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳Технологический завтрак: исследование технологического ландшафта микрочипов

📆 9 июля 2024 г. Институт Организации Объединенных Наций по исследованию проблем разоружения (ЮНИДИР) проведет сайд-ивент РГОС ООН - технологический завтрак по проблематике "Исследование технологического ландшафта микрочипов".

⚙️Достижения в различных областях технологий, таких как нанотехнологии, микрочипы, облачные вычисления и 5G, меняют цифровой ландшафт и стимулируют инновации в области информационно-коммуникационных технологий (ИКТ), искусственного интеллекта (ИИ) и автономных систем. Несмотря на достигнутый прогресс в решении проблем, связанных с последствиями ИКТ и ИИ для безопасности, в рамках различных многосторонних процессов, относительно меньшее внимание уделяется базовым технологиям, лежащим в основе их развития.

Чтобы восполнить этот пробел, ЮНИДИР организует серию технологических завтраков для изучения последствий применения конкретных технологий для международной безопасности, опираясь на результаты исследований, опубликованных в сборнике "Передовые технологии и международная безопасность: сборник" (издание 2023 года). В рамках технологических завтраков состоится вторая сессия этой серии. Она будет посвящена последним достижениям в области технологии микрочипов. Микрочипы являются основой современной электроники и вычислительных систем, выполняя такие важные функции, как обработка информации, хранение данных и выполнение инструкций. Эти достижения обладают значительным потенциалом для будущих приложений ИИ, но в равной степени представляют угрозу для международной безопасности, особенно в том, что касается уязвимостей цепочки поставок, двойного назначения технологии и угроз кибербезопасности.

📎Более подробная информация о мероприятии по ссылке.

🌐Онлайн формат: ссылка для подключения будет предоставлена зарегистрированным участникам по электронной почте за день до начала мероприятия.

ℹ️Для участия в мероприятии необходимо зарегистрироваться до 8 июля 2024 г.

#Школа_МИБ #Мероприятия_МИБ #ИКТ #ИИ #микрочипы #ЮНИДИР
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Обновленная Стратегия НАТО по искусственному интеллекту

📄10 июля 2024 г. на официальном ресурсе НАТО было опубликовано резюме обновленной Стратегии по искусственному интеллекту (полная версия документа традиционно не опубликована). Стратегия отражает ряд изменений, внесенных в предыдущую версию документа от октября 2021 г., с учетом технологических прорывов последних лет в области ИИ.

🗣НАТО обеспокоено возможностями применения ИИ, но стремится им обладать.
В обновленном документе указано, что сгенерированный контент может использоваться с целью посеять разногласия и смятение в Альянсе, демобилизовать и деморализовать общества и военные силы во время конфликтов, провести информационные операции с использованием ИИ для оказания влияния на результаты выборов, распространения дезинформации, а также снижения доверия к институтам и властям, имеющим важное значение для Альянса. Однако в то же время Стратегия подчеркивает, что для НАТО жизненно важно как можно скорее использовать ИИ-технологии там, где это возможно.

🗣НАТО будет стремиться влиять на разработку международных норм по ИИ. В версии 2021 г. были представлены «Принципы ответственного использования ИИ в обороне», а именно «законность, ответственность и подотчетность, объяснимость и прослеживаемость, надежность, управляемость и смягчение предвзятости». Новая версия гласит, что НАТО должно оставаться сторонником ответственного применения ИИ путем применения своих ресурсов с целью оказания влияния на международные нормы и стандарты.

🗣Альянс будет способствовать совместимости систем ИИ стран-членов. Отмечается, что ИИ-технологии будут интегрированы в процесс планирования обороны НАТО. В рамках достижения данной цели Альянс будет предпринимать меры, направленные на оперативную совместимость систем ИИ всех стран-членов. Также будут приняты меры по решению проблемы конвергенции ИИ и других новых прорывных технологий.

🗣Важным приоритетом для НАТО станет обеспечение безопасности систем ИИ. Профильные структуры НАТО планируют привлекать квалифицированных тестировщиков из частного сектора, госорганов и научных учреждений для аккредитации и сертификации систем ИИ. НАТО также намерено принять общие для Альянса методы тестирования, оценки, верификации и валидации ИИ (TEV&V), применяемые в Катализаторе оборонных инноваций для Северной Атлантики (Defence Innovation Accelerator for the North Atlantic (DIANA).

👀 Обращает на себя внимание, что обновленная стратегия стремится не только учесть технологические прорывы в области ИИ, но также навязать странам НАТО англо-американский подход к проблеме регулирования и стандартизации ИИ. Данный нарратив, в частности, коррелирует с подходом, предложенным главным научным советником НАТО Б. Уэлшем по созданию сборника передовых практик использования цифровых технологий, основанного на опыте США и Великобритании. Помимо этого, Стратегия во многом соотносится с намерениями США по дальнейшему изучению применения автономных и управляемых ИИ кибервозможностей, что было заявлено в Киберстратегии министерства обороны США в 2023 г.

🖋Школа МИБ представляет авторский перевод резюме Стратегии НАТО по ИИ на русский язык.

#Школа_МИБ #Новости_МИБ #НАТО #ИИ #Искусственный_интеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
🇪🇺 Европейским парламентом формируется межкомитетская рабочая группа по мониторингу введения Закона об ИИ

💬Напомним, что Закон об искусственном интеллекте (AI Act) был окончательно одобрен Советом ЕС 21 мая 2024 г. Закон является частью более широкого пакета мер по поддержке развития заслуживающего доверия ИИ, который также включает Пакет инноваций в области ИИ (AI Innovation Package) и Скоординированный план по ИИ (Coordinated Plan on AI).

👥Совместная рабочая группа создаётся на базе двух парламентских комитетов - по вопросам внутреннего рынка и защите прав потребителей (IMCO) и по гражданским свободам, правосудию и внутренним делам (LIBE). При этом подробности по организационной структуре и функциональных обязанностях новой Рабочей группы должны быть обнародованы в конце лета 2024 г.

Подобная практика является логическим продолжением стремления депутатов Европейского парламента более тесно участвовать в процессе технологического регулирования ЕС. Так, при других комитетах уже существуют аналогичные профильные структуры, отвечающие за внедрение и реализацию положений Закона о цифровых услугах и Закона о цифровых рынках. 

#Школа_МИБ #Новости_МИБ #ЕС #ИИ #Искусственный_интеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
📄23 июля 2024 года Управление по коммуникациям Великобритании (Ofcom) опубликовало дискуссионный документ под названием «Red Teaming for GenAI Harms», в котором обсуждается применение подхода «red teaming» в качестве метода оценки в рамках поиска уязвимостей в моделях генеративного искусственного интеллекта с целью защиты пользователей от вредоносного контента.

🛡Данный подход представляет собой проведение «атаки» на модель с помощью ряда промптов с целью получения информации о возможной генерации запрещенного контента. В документе подчеркивается, что red teaming представляет собой оценочный процесс, структурированный в четыре основных этапа:
1️⃣ создание команды и постановка четких задач;
2️⃣ подача в тестируемую модель ИИ ряда промптов для проведения атаки;
3️⃣ анализ выходных данных с целью определить, какие атаки приводят к генерации вредоносного контента;
4️⃣ принятие определенных мер по результатам исследования.

🗣Однако в документе отмечается, что у red teaming есть несколько недостатков, в частности:
🔴red teaming затруднительно применить в отношении видео-, аудио- и мультимодальных моделей, которые создают сложный для анализа разнообразный контент;
🔴неопытные операторы могут пропустить вредоносный контент, а автоматические классификаторы могут допускать неточности;
🔴red teaming не полностью воспроизводит реальные условия использования ИИ, поскольку проводится в контролируемых условиях;
🔴полученные в результате использования разных моделей итоги тестирования различных команд сложны для проведения сравнительного анализа.

«Однако, несмотря на широкий интерес к red teaming, на данный момент отсутствует четкий консенсус относительно его сильных и слабых сторон, порядка проведения, необходимых навыков и ресурсов, а также конкретных конечных результатов исследования. Без ответов на эти вопросы тем, кто использует GenAI, сложно понять, как именно и следует ли вообще проводить свою собственную red teaming», − подчеркивают авторы документа.


#Школа_МИБ #Новости_МИБ #ИИ #информационная_безопасность
Please open Telegram to view this post
VIEW IN TELEGRAM