Что такое дипфейк и как его распознать. Объясняем простыми словами
Дипфейк — поддельные фото- аудио- и видеоматериалы, созданные с помощью искусственного интеллекта. Технологии, такие как генеративные состязательные сети (GAN), позволяют реалистично имитировать голос, манеру речи, выражение лица и другие особенности человека. Например, чтобы создавать записи сцен, которых на самом деле не было.
/imgs/2025/02/22/19/6740099/ded57dd49d7fdccb8e547287007325d51ef1a027.jpg)
© Коллаж: «Секрет фирмы», Crookedpixel/Ferrari Press/East News, Andrew Parsons / i-Images/EAST NEWS, Кадр видео youtube/ Christian Dior
Эксперт статьи:
/imgs/2025/02/22/18/6740785/40fb31b39dd39cdebed480333104dfbc29747621.png)
Проще говоря, дипфейк — это «внук» фотошопа и видеомонтажа. Разница в том, что если раньше всевозможные забавные и не очень «жабы» создавались вручную в специальных программах, то теперь дипфейки генерируют нейросети.
Дипфейки делают не только ради смеха, но и для манипуляции и дезинформации. И делают это с каждым годом всё качественней и правдоподобней.
Технологию создания дипфейков разработал в 2014 году студент Стэнфордского университета Иэн Гудфэллоу. Через пару лет она приобрела широкую известность (а заодно и название) благодаря пользователю Reddit с ником deepfake, который начал с её помощью замещать лица порноактрис лицами знаменитостей.
Затем стали популярны приложения, с помощью которых можно было себя состарить, примерить разные цвета волос, а ещё посмотреть, как бы ты выглядел, будучи представителем другой расы или даже гендера. Это было в период, когда дипфейки только зарождались.
А в конце 2023 года в ходе прямой линии с Владимиром Путиным к главе государства по видеосвязи обратился его «клон» . Точнее, цифровая копия, которая точно воспроизводила внешность, интонации и мимику национального лидера. «Аватар», созданный студентом Санкт-Петербургского государственного университета, поинтересовался, много ли у президента двойников.
«Вот я смотрю, вы можете быть на меня похожи и говорите моим голосом. Но я подумал и решил, что похожим на себя и говорить моим голосом должен только один человек. И этим человеком буду я», — не растерялся президент.
Как создают дипфейки
Дипфейки «рождают» генеративно-состязательные нейросети, они же GAN. Это алгоритмы, которые работают на базе машинного обучения и состоят из двух нейронных сетей — генератора и дискриминатора. Генератор создаёт случайные реалистичные изображения, а дискриминатор пытается отличить фейковые материалы от настоящих, что создает процесс обучения и улучшения качества создаваемых материалов.
То же происходит с созданием аудио- или видеороликов на основе общей базы данных, которая есть в свободном доступе в интернете.
Например, программа анализирует сотни фотографий известного певца, сделанные с разных ракурсов и в разные годы и на их основе создаёт новую — например, где этот певец находится в костюме Адама на нудистском пляже. Всего пара кликов, и контент жёлтой прессе обеспечен надолго.
/imgs/2025/02/21/14/6740112/914afd8369a20628f687639a0254207e1c7264db.jpg)
Шарлиз Терон в рекламе Dior
/imgs/2025/02/21/14/6740113/e940f8fdfdab643239ddcbc0b922cb3a9213b0f2.jpg)
Шарлиз Терон, выходящая из золотого бассейна. Но когда камера показывает лицо, вместо южноафриканской красавицы на нем 64-летний Аткинсон
Пока один из них создаёт фото- или видеоподделку, другой пытается определить, настоящая она или нет. Если второму «разуму» удалось распознать фальшивку, первый начинает работу сначала, учитывая причины отбраковки. Таким образом тандем трудится до тех пор, пока не выдаст результат, который сочтёт достаточно реалистичным. Такое вот киберсотрудничество.
Не стоит думать, что сделать дипфейк можно только со знаменитостями. Даже если ваши аккаунты в соцсетях надёжно закрыты, цифровой след в интернете вы всё равно оставили, например публичные записи, фотографии и т. д. Этот аспект делает людей уязвимыми, поскольку даже ограниченная информация может быть использована для создания дипфейков. Поэтому будьте начеку.
Почему дипфейки — это угроза
Во-первых и в-главных, дипфейки — это хороший инструмент для мошенников. С помощью нейросети злоумышленник может сгенерировать голос или манеру переписки друга или родственника жертвы и попросить у неё денег в долг.
Так в 2024 году «попал» актёр Павел Деревянко, у которого аферист под видом давнего приятеля через Telegram «занял» 300 000 рублей. Получив сумму, жулик не успокоился и захотел вытянуть из артиста ещё 250 000. Тогда Павел понял, что его обманывают, позвонил в банк и успел заблокировать транзакцию.
Ещё более изощренной оказалась ситуация с директором певца Александра Буйнова. Злоумышленник отправил ему созданное с помощью дипфейка видео из аэропорта, где похожий на Александра мужчина в бейсболке и тёмных очках просит перевести ему $10 000 долларов . Причём сам певец в это время тоже находился в аэропорту, о чём директор знал. Однако после просьбы положить средства на криптокошелёк засомневался, что действительно общался со своим боссом, и не зря.
/imgs/2025/02/21/14/6740125/a8958a3f264869f42f6f6bbdbbd5be17154387d3.jpg)
Опасность ИИ при работе с иллюстрациями наглядно показывает образ Папы Римского
© Сгенерировано в Midjourney
/imgs/2025/02/21/14/6740126/3215fe45e436beaa92ddd123e35efb7dae8f20c4.jpg)
© Сгенерировано в Midjourney
Всего, по данным компании «Информзащита», в 2024 году число атак с использованием дипфейков в финансовом секторе выросло на 13% — до 5,7 тыс. случаев. Это показывает, как важно знать об угрозах и уметь от них защищаться.
В основном мошенники применяют упомянутую выше схему с превращением в знакомого жертвы. По оценкам компании, такие атаки успешны в 15–20%. Как утверждают эксперты, в будущем это число будет расти, потому что пока технологии «обманки» несовершенны. А искусственный интеллект быстро учится на своих ошибках и продолжает развиваться. Теперь нужно решать не только вопросы безопасности, но и думать, как это регулировать законами и объяснять людям.
Помимо этого в польской компании Vidoc Security Lab недавно сообщили, что злоумышленники стали использовать дипфейки при онлайн-собеседованиях в компании. Зачем? Всё просто: если лжекандидаты пройдут все этапы приёма на работу, они получат доступ к корпоративной информации и смогут использовать её в личных целях. Ситуация подчёркивает уязвимость компаний, которые не проводят личные встречи.
Пока всех «соискателей» удалось раскрыть, но опять же — ИИ не стоит на месте. Под угрозой нанять в штат «кота в мешке» находятся компании, куда можно трудоустроиться удалённо, без офлайн-собеседований и личного посещения отдела кадров.
Ещё дипфейки можно использовать в кибербуллинге. Как в локальном — в тех же школьных чатах, так и в глобальном — достаточно вспомнить «порно» со знаменитостями. И там, и там автора «творения» вычислить обычно сложно, если он не признаётся сам, так как они часто используют анонимные аккаунты. Данная проблема вызывает серьёзные этические и правовые вопросы.
Есть и моральный аспект злоупотребления дипфейками. В июне 2024 года, накануне девятой годовщины смерти певицы Жанны Фриске, организаторы «Премии МУЗ-ТВ» почтили её память и посмертно вручили ей награду «Легенда российской популярной музыки». После на большом экране появилось «оживлённое» изображение Жанны. Дипфейк певицы «спел» несколько строчек из её хита.
Сидевший в зале отец почившей звезды Владимир честно сказал, что от увиденного ему стало плохо. Правда, потом поблагодарил организаторов за их работу. Многие пользователи в интернете отметили, что ролик получился очень реалистичным, а оттого жутковатым.
Использование дипфейков в таких контекстах поднимает вопросы о морали и этике. Многие считают, что использование технологии для «оживления» покойных без согласия их семей является неуместным. Это подчёркивает актуальность обсуждения правовых и этических норм, связанных с подобными технологиями.
Когда дипфейки — благо?
Вопрос подобного «воскрешения» ушедших от нас знаменитостей — спорный, но допустимый и целесообразный с точки зрения уважения к наследию. Если родные не против, то почему бы и нет?
Например, в недавнем фильме «Федя. Народный футболист» про легендарного спартаковца Федора Черенкова искусственный интеллект очень точно изобразил Владимира Высоцкого в роли Гамлета в Театре на Таганке. Такие технологии добавляют картине красок и экономят силы гримеров.
Такие решения могут добавлять глубину и интерес к произведениям.
Организаторы квизов — барных интеллектуальных игр — в последнее время тоже любят использовать дипфейки для создания развлекательного контента, включая визуальные эффекты и креативные вопросы — старят подростковых кумиров, переселяют героев «Звёздных войн» во времена Древней Руси и т. д. Это позволяет сделать мероприятие более увлекательным и интерактивным.
Приложение для изменения внешности также может пригодиться девушке, которая хочет радикально подстричься и покраситься, но не уверена, что новый имидж ей пойдёт. Такие технологии могут помочь людям визуализировать изменения в своем облике, прежде чем они примут решение о радикальных переменах.
Про развлекательную миссию дипфейков тоже забывать нельзя. Использование дипфейков для создания аватарок и развлекательного контента вполне оправдано, и это действительно может быть способом самовыражения для людей различного возраста и профессий.
Также технологию дипфейков взяли на вооружение маркетплейсы. Виртуальная примерка одежды с помощью технологий классической дополненной реальности (AR) становится всё более популярной. Дипфейки могут улучшить этот опыт, позволяя пользователям увидеть, как вещи будут выглядеть на них, что имеет большой потенциал для развития. Опция находится в зародышевом состоянии, но, возможно, только пока.
Возвращаясь к вопросу оживления почивших известных личностей: подобный метод можно использовать и в педагогических целях. Идея «оживления» исторических личностей в образовательных целях находит отклик среди педагогов. Это может сделать изучение истории более увлекательным и интерактивным. Только представьте Петра I, который сам рассказывает школьникам об основании города на Неве и Полтавской битве.
Законно ли использовать дипфейки
Законность использования дипфейков зависит от контекста.
Тут как с топором — им можно наколоть дрова для костра, а можно убить человека.
Если создавать дипфейки с целью мошенничества, клеветы или других преступлений, то за такие действия можно понести юридическую ответственность.
Осенью 2025 года в Госдуму внесли (законопроект об уголовном наказании за использование дипфейков) законопроект, который предусматривает более жёсткие наказания за клевету и мошенничество с использованием высоких технологий. Такой подход позволяет учитывать потенциальные риски, которые несут дипфейки.
Согласно законопроекту, за клевету и мошенничество с применением данной методики будет грозить больше, чем за такие же преступления без участия высоких технологий. Таким образом, использование дипфейка станет отягчающим фактором. Если, конечно, закон примут.
Тогда если нарушитель оклеветает гражданина с помощью ИИ, то ему будет грозить штраф в размере до 1,5 млн рублей. Также возможны арест на срок до трёх месяцев либо лишение свободы на срок до двух лет.
В случае совершения мошенничества штраф составит до 400 000 рублей, а срок лишения свободы — до шести лет.
Как страны борются с дипфейками
В Китае весь созданный искусственным интеллектом контент должен быть обязательно промаркирован. Удалять эти пометки запрещено. Это правило нужно, чтобы пользователи могли различать информацию, которая была создана алгоритмами, от реальных материалов.
В Южной Корее ввели уголовную ответственность за распространение, хранение и просмотр видео или изображений, содержащих дипфейки с сексуальным содержанием. Любителям подобного грозит ощутимый штраф или три года тюрьмы.
В американском штате Алабама и вовсе решили проблему радикально: за любое распространение «лживых мультимедиафайлов» с использованием ИИ там можно получить условный срок.
В большинстве стран, включая Россию, работа над законодательством в отношении дипфейков находится на начальной стадии, так как многие государства только начинают осознавать потенциальные угрозы и разрабатывать соответствующие нормы.
Как распознать дипфейк
Универсальный совет — не стоит сходу верить любой полученной информации. Если вам внезапно написал друг с просьбой занять денег, лучше ему сразу перезвонить и уточнить, действительно ли он в них нуждается. Если позвонить не получается, можно задать уточняющие вопросы, которые касаются ваших взаимоотношений, и расколоть мошенника.
То же самое работает и с любыми «горячими» новостями из интернета — прежде чем делиться ими с друзьями, лучше проверить информацию в нескольких авторитетных источниках.
Кроме того, как мы уже говорили, технология дипфейков пока несовершенна, так что распознать «липу» сложно, но можно.
Увидев подозрительное видео, стоит обратить внимание на:
- Мимику говорящего. Дипфейки часто неточно воспроизводят естественные движения лица.
- Разницу в оттенке кожи между лицом и шеей. Она может свидетельствовать о наложении маски.
- Голос человека. У дипфейка он может звучать менее естественно, более механически, без присущих оригиналу интонаций.
- Качество картинки или аудио — наличие шумов пикселей и артефактов часто указывают на фальшивку.
Также лучше увеличить изображение и обратить более пристальное внимание на зубы и волосы человека — при наложении маски они могут не прорисовываться или иметь дыры.
Дополнительные советы по распознаванию дипфейков:
- Изучение языка тела: обратите внимание на общее поведение человека в видео. Неправдоподобное или несогласованное поведение может указать на фальшивку.
- Кросс-проверка: ищите информацию о событии или человеке в других надёжных источниках. Если новость или видео не подтверждаются, это может быть признаком фальшивки.
- Использование технологических инструментов: существуют специальные программы и онлайн-сервисы, которые могут помочь в детекции дипфейков, хоть и с переменной точностью.
Самые впечатляющие дипфейки
Владимир Путин — не единственный политик, с кем поиграл искусственный интеллект. Гораздо жёстче обошлись с американской демократкой Нэнси Пелоси. В 2019 году нейросеть замедлила речь в одном из публичных выступлений женщины, из-за чего стало казаться, что Пелоси пьяна.
В 2020 году «Сбер» довольно реалистично перенёс героя фильма «Иван Васильевич меняет профессию» в современные реалии и познакомил с продуктами бренда.
Совсем недавно американцев встревожило видео выступления вновь избранного президента Дональда Трампа, где он заявил, что разговаривал с Путиным, и угрожал российскому лидеру по вопросу украинских территорий. Как позже выяснилось, ролик был подделкой и дезинформацией.
Среди голливудских знаменитостей в дипфейках лидируют Николас Кейдж, Киану Ривз и Роуэн Аткинсон, лица которых любят «дарить» другим людям.
Не пощадили интернет-шутники и папу римского Франциска — пару лет назад интернет облетели его фото в дутом белом пуховике известного модного дома. Обман быстро раскрылся, но юзеры до сих пор считают, что такой стиль понтифику идёт.
Эта статья — одна из тысяч в «Энциклопедии "Секрета фирмы"». В этом проекте мы простыми словами рассказываем о сложных терминах и явлениях. Посмотрите другие статьи «Энциклопедии», чтобы лучше понимать мир, в котором мы живём.