🔥#КИБЕРБЕЗОПАСНОСТЬ
⚡️ ГОЛОСОМ24НОВОСТИ
Голосовые дипфейки научились обманывать устройства распознавания речи!
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.
Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.
Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам с функцией распознавания голоса с помощью синтезированных образцов речи.
Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.
200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.
По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:
«Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например, цифровых помощников Amazon Alexa или Google Home».
НАШИ НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
#дипфейк #ИИ #голос #Цифровой двойник
⚡️ ГОЛОСОМ24НОВОСТИ
Голосовые дипфейки научились обманывать устройства распознавания речи!
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.
Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.
Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам с функцией распознавания голоса с помощью синтезированных образцов речи.
Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.
200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.
По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:
«Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например, цифровых помощников Amazon Alexa или Google Home».
Ученые добавили, что голосовые дипфейки также могут напрямую атаковать конечных пользователей, дополняя традиционные фишинговые мошенничества знакомым человеческим голосом.
Напомним, в сентябре мошенники использовали дипфейк Олега Тинькова для рекламы поддельного сайта «Тинькофф Инвестиции».
Количество дипфейков в интернете удваивается раз в шесть месяце
в.НАШИ НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
#дипфейк #ИИ #голос #Цифровой двойник
ForkLog
Исследование: голосовые дипфейки научились обманывать устройства распознавания речи
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают. Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC.…