Актуально Суми
6.95K subscribers
11.5K photos
5.2K videos
1 file
14.8K links
加入频道
Please open Telegram to view this post
VIEW IN TELEGRAM
Google отказалась от обещания не использовать ИИ для создания оружия

Американская корпорация Google удалила из своих принципов разработки искусственного интеллекта формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в оружии. Внимание на это обратило Bloomberg.

На странице, где изложены принципы разработки ИИ, ранее был абзац под названием «Приложения ИИ, которые мы не будем развивать». Сейчас он отсутствует.
Среди таких приложений перечислялись и «технологии, которые наносят или могут нанести общий вред», отмечает Bloomberg со ссылкой на скриншоты из веб-архивов. Указаний на это теперь в статье нет.
В ответ на просьбу прокомментировать изменения политики представитель Google прислал агентству ссылку на заявление из блога компании, опубликованное 4 февраля.
«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека»,

 — говорится в заявлении старшего вице-президента Google Джеймса Манийки и главы лаборатории Google по разработке ИИ DeepMind.

«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность»,
 — подчеркнули топ-менеджеры.

По словам одного из бывших руководителей команды Google по этике при разработке ИИ, Маргарет Митчелл, удаление пункта о технологиях, способных нанести вред, может повлиять на типы работы, которую будет вести корпорация.

«Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей»,
 — сказала она.

Один из главных спонсоров нового президента США Дональда Трампа, член его администрации и основатель компаний Tesla и SpaceX Илон Маск, еще в 2015 году подписал открытое письмо с предупреждением о гонке вооружений с искусственным интеллектом. Под ним подписались более 1 тыс. известных ученых, бизнесменов и экспертов в области искусственного интеллекта, в том числе профессор физики Стивен Хокинг.

Авторы письма утверждали, что искусственный интеллект может быть использован на поле боя, чтобы сделать его более безопасным для военнослужащих, но наступательное вооружение с применением искусственного разума приведет к росту потерь человеческих жизней.

Чат-боты с искусственным интеллектом уже способны помогать пользователям создавать биологическое оружие, писал Bloomberg. Биохимик Рокко Касагранде предупреждал Белый дом о способности ИИ идентифицировать биологические агенты. К таким выводам он пришел после тестирования чат-бота Claude, который предложил использовать патогены в ракетах.

#суми #сумы #гугл #оружие #ии
                  
🤝Підписатися на канал
Зворотній зв'язок
 🎭Перейти до чату