secretmag.ru
Опубликовано 05 мая 2021, 12:01
2 мин.

В России направят 3,5 млн рублей на борьбу с дипфейками

МВД России заплатит 3,5 млн рублей за разработку новой системы распознавания лиц. Программа «Зеркало» должна будет выявлять даже признаки внутрикадрового монтажа изображений с помощью нейросетей. Такая технология получила название «дипфейк».

В России направят 3,5 млн рублей на борьбу с дипфейками

О закупке МВД говорится в госконтракте, с которым ознакомился ТАСС. Согласно приложенной документации, подрядчику придётся изучить способы, с помощью которых можно выявить признаки изменения видеоизображения с помощью нейросетей. Отчитаться о проделанной работе нужно до 30 ноября 2022 года.

Разработка получила кодовое название «Зеркало (Верблюд)». Исполнитель также должен будет разработать техзадание на создание аппаратно-программного комплекса, который бы обрабатывал подобные видео.

Изначальная цена контракта превышала 5 млн рублей, однако в ходе проведения тендера цену удалось снизить.

Контракт на создание комплекса по выявлению и обработке дипфейков получила московская Научно-промышленная компания «Высокие технологии и стратегические системы». За исследовательскую работу МВД заплатит 3,55 млн рублей. Предполагается, что разработку столичной компании будут использовать в экспертно-криминалистических подразделениях для проведения видеотехнических экспертиз.

Дипфейки — это синтез видеоизображений, одно из которых накладывается на другое при помощи искусственного интеллекта и нейросетей. При помощи нейросетей можно максимально реалистично подделывать изображение на фото или видео — например, переносить лицо одного человека другому, сохраняя при этом его индивидуальную мимику. Иногда на глаз такие фейки распознать трудно.

Таким образом делаются ролики с участием знаменитостей, например про обезвреживающего грабителя Киану Ривза или поющего «Трава у дома» Илона Маска. В МВД ранее поясняли, что с помощью дипфейков злоумышленники могут вставить изображение любого человека в ролик с кадрами совершения преступления или обмануть собеседника во время видеозвонка.

Фото: Stephen Wolfram, CC BY-SA 4.0

Технологии будущего, которое уже наступило, — в нашем инстаграме.