🔥#КИБЕРБЕЗОПАСНОСТЬ
⚡️ ГОЛОСОМ24НОВОСТИ
Голосовые дипфейки научились обманывать устройства распознавания речи!
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.
Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.
Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам с функцией распознавания голоса с помощью синтезированных образцов речи.
Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.
200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.
По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:
«Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например, цифровых помощников Amazon Alexa или Google Home».
НАШИ НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
#дипфейк #ИИ #голос #Цифровой двойник
⚡️ ГОЛОСОМ24НОВОСТИ
Голосовые дипфейки научились обманывать устройства распознавания речи!
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.
Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.
Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам с функцией распознавания голоса с помощью синтезированных образцов речи.
Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.
200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.
По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:
«Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например, цифровых помощников Amazon Alexa или Google Home».
Ученые добавили, что голосовые дипфейки также могут напрямую атаковать конечных пользователей, дополняя традиционные фишинговые мошенничества знакомым человеческим голосом.
Напомним, в сентябре мошенники использовали дипфейк Олега Тинькова для рекламы поддельного сайта «Тинькофф Инвестиции».
Количество дипфейков в интернете удваивается раз в шесть месяце
в.НАШИ НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
#дипфейк #ИИ #голос #Цифровой двойник
ForkLog
Исследование: голосовые дипфейки научились обманывать устройства распознавания речи
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают. Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC.…
🔥#ТЕХНОЛОГИИ #ПД #ДИПФЕЙК
Дипфейки и украденные персональные данные используются для подачи заявок на удаленную работу.
Центр жалоб на интернет-преступления ФБР (IC3) предупреждает об увеличении количества жалоб на использование дипфейков и кражи личной информации (PII) для подачи заявок на различные должности удаленной работы и работы на дому.
Дипфейки включают в себя видео, изображения или записи, убедительно измененные и сфабрикованные для того, чтобы представить кого-то в ложном свете как делающего или говорящего что-то, чего на самом деле не было сделано или сказано.
Удаленная работа или работа на дому, указанные в этих отчетах, включают информационные технологии и компьютерное программирование, базы данных и рабочие функции, связанные с программным обеспечением. Примечательно, что некоторые заявленные должности включают доступ к персональным данным клиентов, финансовым данным, корпоративным базам данных ИТ и/или частной информации.
Жалобы сообщают об использовании голосовой подделки или, возможно, голосовых дипфейков во время онлайн-собеседований с потенциальными кандидатами. В этих интервью действия и движения губ человека, у которого берут интервью на камеру, не полностью согласуются со звуком говорящего человека. Иногда такие действия, как кашель, чихание или другие слуховые действия, не соответствуют тому, что представляется визуально.
Жалобы IC3 также указывают на использование украденной личной информации для подачи заявок на эти удаленные должности. Потерпевшие сообщили об использовании их личных данных, и проверки биографических данных перед приемом на работу обнаружили, что личные данные, предоставленные некоторыми заявителями, принадлежали другому лицу.
НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
Дипфейки и украденные персональные данные используются для подачи заявок на удаленную работу.
Центр жалоб на интернет-преступления ФБР (IC3) предупреждает об увеличении количества жалоб на использование дипфейков и кражи личной информации (PII) для подачи заявок на различные должности удаленной работы и работы на дому.
Дипфейки включают в себя видео, изображения или записи, убедительно измененные и сфабрикованные для того, чтобы представить кого-то в ложном свете как делающего или говорящего что-то, чего на самом деле не было сделано или сказано.
Удаленная работа или работа на дому, указанные в этих отчетах, включают информационные технологии и компьютерное программирование, базы данных и рабочие функции, связанные с программным обеспечением. Примечательно, что некоторые заявленные должности включают доступ к персональным данным клиентов, финансовым данным, корпоративным базам данных ИТ и/или частной информации.
Жалобы сообщают об использовании голосовой подделки или, возможно, голосовых дипфейков во время онлайн-собеседований с потенциальными кандидатами. В этих интервью действия и движения губ человека, у которого берут интервью на камеру, не полностью согласуются со звуком говорящего человека. Иногда такие действия, как кашель, чихание или другие слуховые действия, не соответствуют тому, что представляется визуально.
Жалобы IC3 также указывают на использование украденной личной информации для подачи заявок на эти удаленные должности. Потерпевшие сообщили об использовании их личных данных, и проверки биографических данных перед приемом на работу обнаружили, что личные данные, предоставленные некоторыми заявителями, принадлежали другому лицу.
НОВОСТИ - https://yangx.top/golosom24
РАЗМЕСТИТЬ ВАШУ РЕКЛАМУ - https://yangx.top/Golosom24digest
🧨#ИИ #ДИПФЕЙК
OnlyFake — сервис которые генерирует поддельные паспорта и права с помощью ИИ.
Мошенники научились в считанные минуты создавать фотографии поддельных документов. В этом им помогает нейросеть OnlyFake. ИИ-художник генерирует снимки паспортов и водительских прав на любого человека.
На данный момент нейросеть умеет генерировать документы из 26 стран, включая Россию, США, Великобританию, Австралию, Канаду ряд стран ЕС. Разработчики не называют своих имен и принимают оплату только криптовалютой.
Сгенерированные сервисом OnlyFake не только реалистичные, но и проходят проверки на криптобиржах. Пользователи сайта также делятся своим успехом в использовании ИИ-документов для обхода проверок на сайтах Binance, Kraken, Bybit, Bitget, Huobi и PayPal.
Для решения проблемы эксперты предлагают сайтам внедрять многофакторную и поведенческую аутентификации, запрашивать сразу несколько документов для авторизации.
НОВОСТИ24: https://yangx.top/golosom24
OnlyFake — сервис которые генерирует поддельные паспорта и права с помощью ИИ.
Мошенники научились в считанные минуты создавать фотографии поддельных документов. В этом им помогает нейросеть OnlyFake. ИИ-художник генерирует снимки паспортов и водительских прав на любого человека.
На данный момент нейросеть умеет генерировать документы из 26 стран, включая Россию, США, Великобританию, Австралию, Канаду ряд стран ЕС. Разработчики не называют своих имен и принимают оплату только криптовалютой.
Сгенерированные сервисом OnlyFake не только реалистичные, но и проходят проверки на криптобиржах. Пользователи сайта также делятся своим успехом в использовании ИИ-документов для обхода проверок на сайтах Binance, Kraken, Bybit, Bitget, Huobi и PayPal.
Для решения проблемы эксперты предлагают сайтам внедрять многофакторную и поведенческую аутентификации, запрашивать сразу несколько документов для авторизации.
НОВОСТИ24: https://yangx.top/golosom24