Россиянам рассказали, как мошенники используют нейросети. И при чём тут Илон Маск
«Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве, например», — рассказал РИА «Новости» исследователь данных в «Лаборатории Касперского» Владислав Тушканов.
Эксперт привёл в пример дипфейки с образом американского предпринимателя Илона Маска. В 2022 году мошенники стали активно запускать онлайн-трансляции с фейковым образом миллиардера. На них «Маск» предлагал переводить на определённый адрес криптовалюту для удвоения инвестиций.
Такие же стримы аферисты делали с дипфейками создателя Ethereum Виталика Бутерина, бизнесмена Брэда Гарлингхауса и других богачей. Для создания трансляций они использовали нейросети. Мошенники вырезали фрагменты из реальных видео с предпринимателями и монтировали их в свои эфиры. Аудиодорожки тоже были ненастоящие, при этом «Маск» и «Бутерин» произносили нужные мошенникам слова своим настоящим голосом. Трансляции собирали десятки тысяч человек и могли принести создателям миллионы долларов.
Эффект ChatGPT
Сейчас мошенникам помогает и шумиха вокруг нейросетей. Популярный ныне чат-бот ChatGPT сам по себе становится способом обворовать интернет-пользователя, отметил эксперт «Лаборатории Касперского». Всё из-за того, что доступ к боту можно получить не из любой страны. Из России — нельзя, и этим пользуются нечистые на руку люди.
«Недавно у нас было исследование, в интернете появились ресурсы якобы для скачивания клиента ChatGPT и ещё сразу получить $50. Конечно, это был не клиент, а "троян", и таких случаев сейчас достаточно», — рассказал Тушканов.
Сегодня искусственный интеллект способен не только дать экспертные ответы на любые вопросы, но и нарисовать ваше будущее. Это безумно интересно и, увы, становится уже опасно, так как мошенники не дремлют. Ранее эксперт Андрей Прозоровский перечислил главные принципы безопасного использования чат-ботов в Telegram.