С развитием технологий искусственного интеллекта мошенники освоили новый опасный инструмент — дипфейки. Эти поддельные видео- и аудиозаписи выглядят настолько реалистично, что даже внимательные люди могут стать жертвами обмана, предупредил в беседе с RT Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
Особую тревогу вызывают случаи, когда мошенники создают поддельные видеообращения от имени первых лиц государства или руководителей крупных компаний. В корпоративной сфере участились случаи, когда преступники с помощью дипфейков имитируют голос руководителя на телефонных переговорах. Они звонят финансовому отделу и отдают распоряжения о срочном переводе крупных сумм на подконтрольные счета. Особенно коварны схемы с поддельными новостными роликами. Мошенники создают фальшивые выпуски новостей с «аналитиками», которые рекомендуют срочно вложиться в определённые активы», — предостерёг специалист.
Силаев порекомендовал не доверять только голосу или видео — мошенники могут воспроизвести даже мимику и интонации.
«Кроме того, стоит ограничить количество личной информации в открытом доступе — чем больше фото и видео доступно в сети, тем проще злоумышленникам создать убедительный дипфейк. Будьте бдительны и помните: современные технологии позволяют мошенникам подделывать не только тексты, но и образы реальных людей», — заключил он.
© 2025 МИРЭА - Российский технологический университет
Все права на материалы сайта mirea.ru принадлежат РТУ МИРЭА. Правила использования сайта.