Всего за 5 миллионов рублей: МВД задумало создать фейкоразоблачатель
Сейчас дипфейки (от англ. deep — глубокий, fake — фальшивый) используются в основном в мире кино и рекламы. Когда несуществующий человек предстает перед зрителем как живой. Один из наиболее ярких недавних примеров — реклама Сбербанка с Леонидом Куравлевым.
Сама эта технология существует уже несколько лет, и пока ею могут пользоваться только технически оснащенные компании. К тому же, создание таких визуальных образов требует специальных навыков и знаний.
«Сейчас речь уже не об одной программе, а о целых нейросетях, с основой на искусственный интеллект, которые конкурируют друг с другом за качество картинки. Эта технология получила название генеративно-состязательных нейросетей (GAN). Два алгоритма создают две картинки человека.
При этом один алгоритм работает с фото или видео человека, условно говоря, кодирует актера Куравлева "жить" и "сниматься" в рекламе банка, а другой алгоритм пытается этот образ раскодировать до изначального. И такая конкуренция сетей продолжается до тех пор, пока вторая программа не начнет путать сгенерированную "фейковую" картинку с оригиналом», — объяснил эксперт по IT-технологиям Сергей Шипилов.
В российском МВД справедливо заметили, что подобными технологиями могут воспользоваться мошенники. Но одно дело — изобразить по видеосвязи «родственника», выманивающего деньги, другое — спровоцировать международный конфликт на подмене людей в исторических видеозаписях.
В ведомстве объявили тендер на создание системы, которая сможет распознавать дипфейки. Первоначальная стоимость контракта 4 790 357 рублей.
Предполагается, что система может выявлять подделки не постфактум, а уже при просмотре ролика. Работа над проектом будет вестись в два этапа и завершится к 30 ноября 2022 года. пишет «Российская газета».
Ранее адвокат Екатерина Духина объяснила, что люди склонны верить любой информации. в Сети фейки распространяются молниеносно и могут посеять в обществе панику.