Риски ИИ: "давайте делать исследования этично".
Nature опубликовала редакторскую статью (июнь 2023) для обсуждения рисков искусственного интеллекта (ИИ). По мнению авторов, надо забыть про отдалённые во времени проблемы и сосредоточиться на исследованиях этичности ИИ в наше время. У моделей машинного обучения есть как минимум несколько потенциально опасных сторон - от "расовых предпочтений", до "утери работ гражданами", и до "чёрного ящика" выбора людей для программ социальной или медицинской помощи.
Будет интересно следить за процессом - во многих странах задумались, насколько системы распознавания лиц этичны, и пытаются запрещать. В других укрепляют безопасность данных. В третьих решения сделали очень продвинутыми и продают в другие страны. Каким будет итоговое решение - очень важно для людей.
Вот научпоп книга про эти вопросы:
https://www.litres.ru/book/maks-tegmark/zhizn-3-0-byt-chelovekom-v-epohu-iskusstvennogo-intellekta-41741198/
#AI #Nature
Nature опубликовала редакторскую статью (июнь 2023) для обсуждения рисков искусственного интеллекта (ИИ). По мнению авторов, надо забыть про отдалённые во времени проблемы и сосредоточиться на исследованиях этичности ИИ в наше время. У моделей машинного обучения есть как минимум несколько потенциально опасных сторон - от "расовых предпочтений", до "утери работ гражданами", и до "чёрного ящика" выбора людей для программ социальной или медицинской помощи.
Будет интересно следить за процессом - во многих странах задумались, насколько системы распознавания лиц этичны, и пытаются запрещать. В других укрепляют безопасность данных. В третьих решения сделали очень продвинутыми и продают в другие страны. Каким будет итоговое решение - очень важно для людей.
Вот научпоп книга про эти вопросы:
https://www.litres.ru/book/maks-tegmark/zhizn-3-0-byt-chelovekom-v-epohu-iskusstvennogo-intellekta-41741198/
#AI #Nature
Nature
Stop talking about tomorrow’s AI doomsday when AI poses risks today
Nature - Talk of artificial intelligence destroying humanity plays into the tech companies’ agenda, and hinders effective regulation of the societal harms AI is causing right now.