Появилась новая профессия в сфере ИИ, не требующая знаний в IT, но это вызывает обеспокоенность
В мире растет число людей, готовых работать моделями для дипфейк-мошенничества, предоставляя свои изображения и голос для создания поддельных видео
Об этом сообщает сайт РИА Новости со ссылкой на руководителя портфеля продуктов VisionLabs Татьяну Дешкину.
По её словам, такие объявления впервые появились в Китае, где молодые люди с опытом участия в мошеннических схемах начали предлагать свои данные злоумышленникам. В 2024 году одна женщина разместила объявление о поиске работы дипфейк-моделью, указав на свой опыт в инвестиционных аферах.
Обычно технологии дипфейк используются для создания виртуальных персонажей в индустрии развлечений. Однако мошенники применяют их для обмана пользователей. Распространенным видом атаки является синхронизация губ, когда видео изменяется так, чтобы создать иллюзию настоящей речи.
Дешкина также упомянула случаи добровольного предоставления своих данных мошенникам. Злоумышленники используют эти данные для доступа к застрахованным счетам и кражи средств, делясь частью "добычи" с теми, кто предоставил свои данные.
Кроме того, мошенники часто переходят из одной сферы в другую. Системы распознавания лиц помогают пресекать попытки финансового мошенничества со стороны лиц, ранее замешанных в других преступлениях, таких как кражи в магазинах.