Мошенники с помощью ИИ всё чаще создают deepfake-видео, используют автодозвон, а публичные чаты с искусственным интеллектом (ИИ) создают риск утечек конфиденциальных данных. Об этом Агентству городских новостей «Москва» сообщил заведующий лабораторией доверенного искусственного интеллекта МИРЭА — Российского технологического университета Юрий Силаев.
«Старые методы защиты уже не работают — нужны новые меры: многоуровневая проверка личности (не доверять голосу или видео), контроль данных на входе и выходе ИИ-систем и независимый аудит алгоритмов. Без этого волна ИИ-преступности будет только нарастать, превращая технологический прогресс в инструмент масштабного вреда», — заключил Силаев.
© 2025 МИРЭА - Российский технологический университет
Все права на материалы сайта mirea.ru принадлежат РТУ МИРЭА. Правила использования сайта.