Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев рассказал в беседе с RT, каким образом мошенники могут подделывать голоса близких людей.
«Технология голосового клонирования с помощью искусственного интеллекта перестала быть футуристической концепцией и превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников», — рассказал он.
Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио, поделился специалист.
«Сегодня же для этого существуют общедоступные сервисы. Для создания убедительной модели порой достаточно образца речи длиной в несколько секунд», — отметил он.
«Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь это видео в социальных сетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная», — предупредил он.
Не менее уязвимы мессенджеры, продолжил Силаев.
«Достаточно нескольких голосовых сообщений в семейном или рабочем чате, чтобы предоставить мошенникам исчерпывающий материал. Но что действительно тревожно, так это то, что злоумышленники могут добыть образец голоса и при прямом звонке жертве», — подчеркнул он.
© 2025 МИРЭА - Российский технологический университет
Все права на материалы сайта mirea.ru принадлежат РТУ МИРЭА. Правила использования сайта.