Профайлинг, нейротехнологии и детекции лжи
22K subscribers
2.19K photos
302 videos
121 files
1.19K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia научила нейросеть анимировать 3D-модель лица только на основе голоса.

Audio2Face работает как с готовыми аудиофайлами, так и в режиме реального времени. Программа поддерживает четыре языка, включая русский.

Бета-версия Audio2Face с поддержкой русского языка доступна для скачивания.

Демонстрационная версия использует модель персонажа Digital Mark, но для работы можно взять лицо с любыми чертами. Также анимацию, предназначенную для одного персонажа, можно перенести на другого человека. В общем - супер!

Ох, чего только с помощью этого можно будет сделать! ....и плохого, и хорошего.

#технологии, #голос, #лицо, #анимация, #ИИ
В профессиональных кругах не утихают споры вокруг израильской технологии Corsight AI, в конце прошлого года заявившая, что способна по ДНК восстановить образ лица человека.

Компания разрабатывает систему «DNA to Face» — алгоритм, который генерирует фотореалистичное изображения человека на основе его ДНК. Ранее эта технология считалась невозможной, но стартап уверен, что у него получится — он уже привлек финансирование и получил нескольких влиятельных специалистов в свой консультативный совет, включая бывшего директора ЦРУ Джеймса Вулси и бывшего помощника директора ФБР Оливера Ревелла.

Пока не понятно, на что конкретно направлен этот стартап: если только ради денег, то он смог заручиться поддержкой довольно авторитетных ученых и чиновников, которые ранее не были замечены в грязных делах.

Технология, как заявляется, Corsight использует алгоритмы машинного обучения для анализа генетического материала, который может быть извлечен из волос, частиц кожи и ногтей человека. Система автоматически выстраивает физический профиль, составляя таким образом фоторобот — более точное изображение подозреваемого преступника или пропавшего без вести, чем могут составить эксперты-криминалисты по описанию очевидцев.

Как именно работает система — неизвестно, поэтому это все и пахнет простым сбором денег с инвесторов. Стартап отказывается раскрывать данные технологии, ссылаясь на конфиденциальность своего подхода и возможных клиентов в лице государственных органов. Но не все так просто….

Стартап впервые представил свой продукт в 2021 году в рамках презентации на конференции Imperial Capital Investors Conference в Нью-Йорке. И получил хорошие отзывы статусной экспертной комиссии. Которая до этого времени тоже не была замечена ни в чем грязном.

Стоит отметить, что Corsight AI не планирует ограничивать себя в разработке системы «DNA to Face». В дорожной карте стартапа, опубликованной на IPVM, также указаны «Voice to Face» для идентификации возможных преступников по голосу и система идентификации походки.

При этом, технологии Spech2Face уже есть и работают хоть и плохо, но работают. Еще в 2019 году была представлена вполне рабочая версия, которая в 2020 была куплена NVIDIA, которая сейчас активно развивает это направление.

В общем, посмотрим, во что все это выльется: пока не понятно. Я пока точно не знаю, но что-то в этом точно должно быть: как минимум расу, пол, возраст, национальность и ряд базовых внешних параметров определить по ДНК скорее можно, чем нельзя.

#технологии, #AI, #техногиганты, #безопасность, #лицо, #голос, #нейросеть, #профайлинг, #криминалитика, #Филатов, #ProProfiling.
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.

Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.

Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.

Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.

Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.

Регистрация здесь:

https://proprofiling.com/dpf

#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.

1. Forensically
Это набор бесплатных инструментов для анализа изображений.

«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.

2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.

3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.

Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.

4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.

5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.

Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).

KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.

Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.


Перспективы и разработки

В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.

Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.

Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?

Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов

FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.

На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).

Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:

YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.

YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.

Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».

Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».

Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Опубликован большой альманах «Искусственный Интеллект» индекс 2021 года.

Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».

О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.

Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.

В общем – расти и развиваться есть куда.

#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Поэтому очень важно понимать правильность формул, которые зашиты в презентованном «черном ящике» по оценке соцсетей. Такие формулы есть, но они должны быть рецензированы экспертами. И если это все выдержит такое рецензирование – то ОК. Но это – гигантская работа)).

Выводы делайте сами. Но очевидно, что сейчас в соцсетях надо быть аккуратней. Я говорю не только о довольно большом количестве дел и даже реальных посадках за пост в соцсетях. Например бОльшая часть аккаунтов в ВК уже идентифицированно и связано с конкретным, точно определенным пользователем. Ну а если трудно достоверно идентифицировать пользователя в других соцсетях, то на крайний случай, их можно запретить.

#профайлинг, #цифровойпрофайлинг, #технологии, #общественнаябезопасность, #экспертиза, #соцсети, #Филатов, #ProProfiling
Аудиокарта эмоций.

Всех с завершением пятницы! И вот вам учебно-развлекательный пост!

В конце прошлого года появилось интересное исследование, посвященное картированию аудиальных эмоциональных выражений. Взгляните - весьма занятно получилось!

Если вы следите за каналом, то классический атлас эмоций П.Экмана, вы уже видели. И вот, похоже появляется нечто подобное, но со звуком. Точнее – с голосом.

Сегодня создание хороших голосовых анализаторов является самым перспективным направлением в автоматизации профилирования и умение определить не просто базовую эмоцию, а их процентную комбинацию (читай – эмоциональное состояние) сильно бы пригодилось.

Карта показывает взаимосвязи и переходы 24 основных эмоциональных состояний в голосе, характеризируя их при этом по 13-ти критериям, например – уверенность, доминантность, возбуждение, надежность и прочие. Как минус, стоит сказать, что эта карта появилась путем записи и анализа образцов голоса всего 56 человек, что, конечно, мало. Однако этих образцов было более 3.000.

Посмотрите и послушайте звуки на интерактивной карте по ссылке. Потренируйтесь. Поспрашивайте себя, как бы вы категоризировали те звуки, которые услышите и сравните их с описанием: это весьма полезно для улучшения аудиальной калибровки. Тренироваться лучше на десктопе, на телефоне – простая трата времени.
Я иногда открываю себе эту карту и "загружаю" в себя нужные эмоции.

Довольно давно я рассказывал про CLEESE – программе оценки и модификации психологической окраски речи. Ее алгоритм я считаю более перспективным, поскольку он сочетает в себе компьютерное обучение на основе гораздо большего количества образцов голоса, модифицированных на основе экспертного и компьютерного анализа. CLEESE позволяет модифицировать голос под специальные требования пользователя – сделать его, например, более агрессивным, доверительным, теплым и прочее.

С CLEESE и ее разработчиками я познакомился в Глазго 4 года назад на форуме CERE-2018 где они представляли свою работу и очень замечательно, что мы с ними продолжаем общение даже сейчас в текущей ситуации.

#голос, #эмоции, #технологии, #приложения, #программы, #профайлинг, #исследования, #мэтры, #ProProfiling, #Филатов