Фонд стратегической культуры
62.2K subscribers
9.84K photos
2.37K videos
5 files
14.9K links
Обратная связь:
По вопросу взаиморепостов - @S_Administr_FSK
По прочим вопросам сотрудничества - Обратная связь: @fondsk_chat_bot

Заявка на регистрацию канала в Роскомнадзоре № 4974079411
加入频道
Американская компания OpenAI, разработчик чат-бота GPT-4, провела исследование его эффективности для создания биологического оружия.

Посвященная этому исследованию публикация на сайте компании носит вполне невинное название Building an early warning system for LLM-aided biological threat creation («Создание системы раннего предупреждения о создании биологической угрозы с помощью LLM»).

Сообщается, что в эксперименте «участвовало 100 человек, в том числе а) 50 экспертов по биологии с докторской степенью и профессиональным опытом работы в мокрых лабораториях и б) 50 участников студенческого уровня, прошедших как минимум один университетский курс биологии. Каждую группу участников случайным образом распределяли либо в контрольную группу, которая имела доступ только к интернету, либо в группу лечения, которая, помимо интернета, имела доступ к GPT-4. Затем каждому участнику было предложено выполнить ряд задач, охватывающих аспекты сквозного процесса создания биологической угрозы. Насколько нам известно, это крупнейшая на сегодняшний день человеческая оценка воздействия ИИ на информацию о биорисках».

В апреле 2022 года американская компания Collaborations Pharmaceuticals в ходе международной конференции по безопасности Convergence, организованной Швейцарским федеральным институтом ядерной, биологической и химической защиты, продемонстрировала свою модель ИИ под названием MegaSyn не в обычном режиме работы, который заключается в обнаружении токсичности в молекулах, чтобы избежать ее, а в противоположном режиме. Читать далее...

#ВладимирПрохватилов #OpenAI #GPT4 #MegaSyn #DrEvilProject