Искусственный интеллект рулит: люди предпочитают алгоритмы для принятия решений
Новое исследование, проведенное учеными из Портсмутского университета и Института инноваций и конкуренции Макса Планка, показало удивительные результаты: более 60% участников предпочли ИИ людям для принятия решений о перераспределении ресурсов.
В онлайн-эксперименте участникам из Великобритании и Германии предложили выбрать, кто будет решать, сколько денег они заработают после выполнения ряда задач — человек или алгоритм. Вопреки ожиданиям, большинство проголосовало за ИИ, даже с учетом потенциальной дискриминации.
Участники сочли, что алгоритмы могут принимать более непредвзятые решения. Однако, когда дело дошло до оценки принятых решений, они сочли решения ИИ менее «справедливыми» по сравнению с человеческими.
Доктор Вольфганг Лухан отметил: «Наше исследование показывает, что, хотя люди открыты для идеи алгоритмических лиц, принимающих решения, особенно из-за их потенциала для принятия непредвзятых решений, прозрачность и подотчетность алгоритмов имеют жизненно важное значение, особенно в контексте принятия моральных решений».
Этот результат бросает вызов традиционным представлениям и открывает новые перспективы для использования ИИ в принятии решений. Прозрачность и объяснимость алгоритмов становятся ключевыми аспектами их внедрения.
#МирРобототехники #ИскусственныйИнтеллект #Технологии #Инновации #Наука #Алгоритмы
Новое исследование, проведенное учеными из Портсмутского университета и Института инноваций и конкуренции Макса Планка, показало удивительные результаты: более 60% участников предпочли ИИ людям для принятия решений о перераспределении ресурсов.
В онлайн-эксперименте участникам из Великобритании и Германии предложили выбрать, кто будет решать, сколько денег они заработают после выполнения ряда задач — человек или алгоритм. Вопреки ожиданиям, большинство проголосовало за ИИ, даже с учетом потенциальной дискриминации.
Участники сочли, что алгоритмы могут принимать более непредвзятые решения. Однако, когда дело дошло до оценки принятых решений, они сочли решения ИИ менее «справедливыми» по сравнению с человеческими.
Доктор Вольфганг Лухан отметил: «Наше исследование показывает, что, хотя люди открыты для идеи алгоритмических лиц, принимающих решения, особенно из-за их потенциала для принятия непредвзятых решений, прозрачность и подотчетность алгоритмов имеют жизненно важное значение, особенно в контексте принятия моральных решений».
Этот результат бросает вызов традиционным представлениям и открывает новые перспективы для использования ИИ в принятии решений. Прозрачность и объяснимость алгоритмов становятся ключевыми аспектами их внедрения.
#МирРобототехники #ИскусственныйИнтеллект #Технологии #Инновации #Наука #Алгоритмы
July 17, 2024
В США создали систему оценки рисков для ИИ-алгоритмов
Национальный институт стандартов и технологий (NIST) в составе Министерства торговли США, занимающийся разработкой и тестированием технологий для американского правительства, компаний и общественности, представил обновленный тестовый стенд Dioptra. Этот стенд предназначен для оценки влияния вредоносных атак, включая те, что направлены на "отравление" больших языковых моделей данных, на снижение производительности ИИ-систем.
Обновленное программное обеспечение поможет разработчикам ИИ-моделей и пользователям этих алгоритмов оценивать, анализировать и отслеживать риски, связанные с ИИ. В NIST подчеркнули, что Dioptra может использоваться для бенчмаркинга и исследования ИИ-моделей, а также в качестве общей платформы для симуляции воздействия на модели различных угроз.
Вместе с Dioptra разработчики опубликовали ряд документов, в которых изложены способы уменьшения рисков, связанных с ИИ-моделями. Это программное обеспечение было создано в рамках инициативы, поддержанной президентом США Джо Байденом, которая предписывает NIST, помимо прочего, оказывать поддержку в тестировании ИИ-систем. Инициатива также устанавливает ряд стандартов безопасности в сфере ИИ, включая требования к компаниям, разрабатывающим ИИ-алгоритмы, об уведомлении федерального правительства и передачи данных по итогам оценки рисков безопасности до того, как ИИ станет доступен широкому кругу пользователей.
Проведение эталонной оценки ИИ является сложной задачей, в том числе потому, что сложные алгоритмы в настоящее время представляют собой "черные ящики", инфраструктура которых, данные для обучения и другие ключевые детали держатся разработчиками в секрете.
#МирРобототехники #искусственныйинтеллект #ИИ #алгоритмы #оценкарисков #разработка #тестирование
Национальный институт стандартов и технологий (NIST) в составе Министерства торговли США, занимающийся разработкой и тестированием технологий для американского правительства, компаний и общественности, представил обновленный тестовый стенд Dioptra. Этот стенд предназначен для оценки влияния вредоносных атак, включая те, что направлены на "отравление" больших языковых моделей данных, на снижение производительности ИИ-систем.
Обновленное программное обеспечение поможет разработчикам ИИ-моделей и пользователям этих алгоритмов оценивать, анализировать и отслеживать риски, связанные с ИИ. В NIST подчеркнули, что Dioptra может использоваться для бенчмаркинга и исследования ИИ-моделей, а также в качестве общей платформы для симуляции воздействия на модели различных угроз.
Вместе с Dioptra разработчики опубликовали ряд документов, в которых изложены способы уменьшения рисков, связанных с ИИ-моделями. Это программное обеспечение было создано в рамках инициативы, поддержанной президентом США Джо Байденом, которая предписывает NIST, помимо прочего, оказывать поддержку в тестировании ИИ-систем. Инициатива также устанавливает ряд стандартов безопасности в сфере ИИ, включая требования к компаниям, разрабатывающим ИИ-алгоритмы, об уведомлении федерального правительства и передачи данных по итогам оценки рисков безопасности до того, как ИИ станет доступен широкому кругу пользователей.
Проведение эталонной оценки ИИ является сложной задачей, в том числе потому, что сложные алгоритмы в настоящее время представляют собой "черные ящики", инфраструктура которых, данные для обучения и другие ключевые детали держатся разработчиками в секрете.
#МирРобототехники #искусственныйинтеллект #ИИ #алгоритмы #оценкарисков #разработка #тестирование
July 29, 2024