secretmag.ru
Опубликовано 23 июня 2023, 18:10
2 мин.

В России решили победить дипфейки раз и навсегда. Каким образом

Депутат Хинштейн: в законе закрепят понятие «дипфейк» для борьбы с мошенниками. Депутатов беспокоит, что в интернете становится всё больше контента с реалистичной подменой фото, видео и аудио. Но пройдёт лет пять, и новомодная «игрушка» станет полноценным и грозным оружием аферистов. Разбираемся, получится ли регулировать генерацию фейков законом. Некоторые айтишники сомневаются.

Что такое дипфейк

Есть просто фейки — тексты в соцсетях с ложной информацией или ненастоящие профили в соцсетях. А есть их продвинутая версия — дипфейки. К ним относится любая реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей.

Нейросети при умелом обращении позволяют вставить лицо определённого человека в нужное видео таким образом, что подмену сложно разглядеть. Таким же образом можно использовать не только чужую внешность, но и голоса.

Как власть собирается бороться с дипфейками

Современные дипфейки распознавать всё труднее и труднее, посетовал глава комитета Госдумы по информационной политике Александр Хинштейн. При этом в законодательстве это явление никак не закреплено. Депутат сообщил «Известиям», что на базе думского комитета экспертное сообщество вместе с Роскомнадзором разрабатывает законопроект. Он даст правовое определение дипфейкам.

Отдельный закон создавать не будут — могут появится лишь поправки к действующему законодательству. А зачем они вообще нужны? Зампред комитета по информполитике Олег Матвейчев объясняет это так:

«В течение 3–5 лет этот механизм (нейросейтей) разрастётся, и к его использованию примкнут мошенники».

Но не только они, отметил депутат. Он напомнил, что уже сейчас некоторые студенты начали писать выпускные дипломы с помощью нейросети. Причём один такой хитрец нашёлся в России.

И на самом деле мошенники уже вовсю используют и ChatGPT, и голосовую подмену, и видео-дипфейки. Вопрос только в масштабах. Технология пока слишком дорога и сложна, требует от мошенников определённых навыков. Но когда и если она станет проще, дипфейки будут гулять сплошь и рядом, предупредил исследователь данных «Лаборатории Касперского» Дмитрий Аникин.

Как распознать дипфейк

Большинство современных дипфейков распознать не проблема, если сохранять бдительность. Вот несколько советов, которые помогут быстро отличить поддельное видео от реального:

  • Обращайте внимание на кожу. В дипфейках цвет «обработанной» части (обычно лица) немного отличается от цвета кожи остального тела.

  • Внимательно смотрите мимику. Дипфейки частенько выдаёт неестественное движение губ и глаз у говорящего на видео человека, отсутствие пауз.

  • Сильно увеличьте изображение. Это позволяет разглядеть компьютерную графику — например, ненастоящую бороду на сгенерированном лице.

  • Проверьте изображение поиском картинок в Google (или в «Яндексе»). Иногда там можно обнаружить оригинал фото.

В России недавно заработала система мониторинга дипфейков на основе распознавания речи. Проект создало АНО «Диалог регионы». Назвали разработку «Зефир». Подробнее о ней мы рассказывали здесь.