Дипфейк: как люди во всем мире теряют миллионы из-за рекламы в интернете
Раньше мошенники использовали кропотливо выбранные фрагменты роликов со знаменитостями и политиками, то теперь они научились создавать собственные фейковые ролики
Дипфейк — это фото, видео или аудиозапись с лицом или голосом известной личности, будь то глава государства или звезда шоубизнеса. Мошенники используют знаменитость, которой доверяют миллионы людей, чтобы поймать на свою удочку как можно больше жертв, передает сайт Fingramota.kz
Данная технология позволяет создать кадры, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил. Для мошенников дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан, - поделились специалисты Fingramota.kz.
С помощью дипфейков злоумышленники могут:
- подделать чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты;
- выкрасть данные умершего человека, «оживить» его для получения доступа к банковским онлайн-сервисам;
- синтезировать нового «человека», которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества.
Отметим, дипфейки стали использовать сравнительно недавно, первые видео, подделанные с помощью нейросетей, появились в Сети 5 лет назад.
Первая знаменитая афера с фейковыми кадрами прогремела на весь Интернет в 2019 году.
В Великобритании киберпреступники с помощью искусственного интеллекта подделали голос главы крупной энергетической компании и даже его легкий немецкий акцент. Они позвонили к исполнительному директору и под предлогом срочности потребовали перевести 220 тысяч евро в течение часа якобы поставщику. Управленец выполнил указание своего «босса», но мошенники на этом не остановились и позвонили еще два раза с просьбой совершить дополнительные платежи. Это вызвало подозрения, началось расследование, которое показало, что была совершена тщательно продуманная хакерская атака с использованием фейкового аудио. Но вернуть средства, как и найти злоумышленников, не удалось.
Два года назад жертвой мошенников чуть не стал 68-летний адвокат из Филадельфии, который почти поверил звонившему «сыну». Мошенники использовали дипфейк-аудио молодого человека и позвонили его отцу с просьбой перевести 9 тысяч долларов, но, к счастью, афера была вовремя раскрыта.
Уже в 2021 году в Китае уличили во лжи аферистов, выдававшим своим клиентам поддельные накладные. Они покупали фотографии людей и «оживляли» их с помощью технологии дипфейка, после спокойно проходили систему проверки личности налоговой службы. Таким образом преступники заработали свыше 76 миллионов долларов.
В России также известны случаи мошенничества с помощью дипфейков. К примеру, в 2021 году мошенники создали и распространили в сети дипфейк-видео с основателем банка «Тинькофф». «Бизнесмен» призывал пользователей открыть инвестиционный счет, вложить свои средства и хорошо на этом заработать. Для этого надо было перейти по фишинговой ссылке, указанной ниже, и оставить данные о себе. Хотя видео было не очень хорошего качества, многие пользователи все же поверили ролику.
В Казахстане о случаях с мошенничества с использованием технологии дипфейка пока ничего неизвестно.
Чтобы не попасться на удочку мошенников, специалисты Fingramota.kz советуют:
- Мошенники редко уделяют должное внимание качеству своего контента, будь то видео, фото или аудио. Поэтому странное моргание человека, либо его отсутствие, слова невпопад, легкое заикание или роботизированный тон должны вас насторожить. Ко всему, что кажется вам неестественным, стоит отнестись с подозрением.
- Если звонок поступает от близкого человека, который срочно просит перевести деньги? В таком случае следует завершить разговор и перезвонить на настоящий номер знакомого, уточнить, действительно ли ему нужна помощь.
- В интернете опубликован ролик, в котором публичная личность предлагает заработать много денег при минимальных усилиях? В таком случае стоит включите критическое мышление. Гарантированный доход обещают только мошенники. Подобным «рекламам», даже без использования дипфейков, где просто используются изображения известных и уважаемых людей, не нужно доверять. Злоумышленники бүгін активно предлагают заработать на различных инвестиционных онлайн-платформах, для участия в которых нужно оставить свои данные на фейковых сайтах и перечислить организаторам небольшие суммы.
Кроме этого существует тест, который разработал Массачусетский технологический институт. Он состоит из восьми вопросов, позволяющих распознать, используется ли технология дипфейка в видео:
- Не трансформируется ли лицо при движении?
- Не кажется ли вам кожа на лице слишком гладкой или морщинистой? Схоже ли старение кожи со старением волос и глаз?
- Глаза и брови. Появляются ли тени в ожидаемых местах? Дипфейк часто не может полностью передать естественную физику освещения.
- Есть ли блики на очках? Не слишком ли их много? Изменяется ли угол бликов при движении человека?
- Натурально ли выглядит растительность на лице? Искусственный интеллект может добавлять и удалять усы, бороду и бакенбарды, но зачастую не может передать волосы предельно естественно.
- Выглядят ли родинки на лице настоящими?
- Не слишком ли часто моргает человек?
- Обратите внимание на размер и цвет губ. Соответствуют ли они остальной части лица?