XXI век – век фэйка, будьте внимательны.
Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество фэйков.
Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так, что его не отличить от настоящего. Включая речь. Т.е. профессионал за несколько минут может сделать видео-ролик с известным человеком, несущим какую-то пургу и выложить его в сеть, при этом понять, что это фэйк не сможет ни человек, ни машина. Киношники в восторге, поскольку уже внедрили у себя эту технологию, впрочем, также, как и журналисты, занимающиеся распространением фэйковых новостей.
А между тем, уже появились факты того, что как минимум несколько человек было несправедливо осуждены и посажены в тюрьму из-за подобных фейковых видеопризнаний и видеороликов. И это, конечно, жесть. Потому, что гарантированно отличить реальное видео от сделанного нельзя. Нет еще такой технологии. Пятерка мировых IT-лидеров уже потратило несколько миллиардов на то, чтобы такую технологию создать, но пока безрезультатно: киношники пока побеждают.
А совсем недавно появилась нейросеть, способная оживить картинки, сделав из них примерно то, как двигались картинки в газетах в фильмах про Гарри Поттера. Такие фотографии могут совершать произвольные движения, разговаривать, выбегать из кадра, при этом фон картинки самостоятельно достраивается, а пользователь может вручную изменить положение частей тела модели перед началом анимации.
https://youtu.be/G63goXc5MyU
Эту нейросеть, как и предыдущую, о которой я здесь написал, обучили в Израиле, в университете Тель-Авива совместно с FaceBook, под руководством одного из столпов этого процесса – Иры Шлицерман. Киношники, конечно, обрадуются, но лет через 5, когда технология войдет в рутину, всему видео-контенту, особенно значимому для судопроизводственной практики, доверять будет трудно, ибо смастерить можно будет практически все, обладая средними навыками в компьютерной графике.
Как будет работать профайлинг и верификация лжи в условиях, когда подлинность практически любой видео-записи, до сих пор являющейся одним из основных доказательств в суде, можно будет поставить под сомнение – я не знаю. Но уверен, что будет еще более интересно.
Делаем выводы.
#профайлинг, #видео, #FAANG, #нейросеть, #программы, #верификация, #фэйк
Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество фэйков.
Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так, что его не отличить от настоящего. Включая речь. Т.е. профессионал за несколько минут может сделать видео-ролик с известным человеком, несущим какую-то пургу и выложить его в сеть, при этом понять, что это фэйк не сможет ни человек, ни машина. Киношники в восторге, поскольку уже внедрили у себя эту технологию, впрочем, также, как и журналисты, занимающиеся распространением фэйковых новостей.
А между тем, уже появились факты того, что как минимум несколько человек было несправедливо осуждены и посажены в тюрьму из-за подобных фейковых видеопризнаний и видеороликов. И это, конечно, жесть. Потому, что гарантированно отличить реальное видео от сделанного нельзя. Нет еще такой технологии. Пятерка мировых IT-лидеров уже потратило несколько миллиардов на то, чтобы такую технологию создать, но пока безрезультатно: киношники пока побеждают.
А совсем недавно появилась нейросеть, способная оживить картинки, сделав из них примерно то, как двигались картинки в газетах в фильмах про Гарри Поттера. Такие фотографии могут совершать произвольные движения, разговаривать, выбегать из кадра, при этом фон картинки самостоятельно достраивается, а пользователь может вручную изменить положение частей тела модели перед началом анимации.
https://youtu.be/G63goXc5MyU
Эту нейросеть, как и предыдущую, о которой я здесь написал, обучили в Израиле, в университете Тель-Авива совместно с FaceBook, под руководством одного из столпов этого процесса – Иры Шлицерман. Киношники, конечно, обрадуются, но лет через 5, когда технология войдет в рутину, всему видео-контенту, особенно значимому для судопроизводственной практики, доверять будет трудно, ибо смастерить можно будет практически все, обладая средними навыками в компьютерной графике.
Как будет работать профайлинг и верификация лжи в условиях, когда подлинность практически любой видео-записи, до сих пор являющейся одним из основных доказательств в суде, можно будет поставить под сомнение – я не знаю. Но уверен, что будет еще более интересно.
Делаем выводы.
#профайлинг, #видео, #FAANG, #нейросеть, #программы, #верификация, #фэйк