Top.Mail.Ru

Киберэксперт РТУ МИРЭА: генеративный ИИ может создавать убедительные, но ложные истории

9 сентября 2025

Ключевые риски, связанные со взаимодействием с искусственным интеллектом, охватывают не только технические аспекты, но и социальные, психологические и этические вопросы, рассказал в беседе с RT Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

Современные ИИ-системы, особенно генеративные модели, становятся всё более интегрированными в нашу повседневную жизнь, что требует осознанного подхода к их использованию. Одной из наиболее серьёзных опасностей является риск утечки личной информации. ИИ-системы, особенно большие языковые модели, обучаются на огромных массивах данных, которые могут включать конфиденциальную информацию: персональные данные, финансовые транзакции, медицинские записи и даже интеллектуальную собственность», — отметил эксперт.

Важно понимать, что риски усугубляются практикой «теневого ИИ» — использования сотрудниками инструментов ИИ без одобрения IT-отделов, рассказал аналитик.

«Это приводит к тому, что конфиденциальные корпоративные данные (например, ценовые стратегии или условия контрактов) попадают в незащищённые внешние системы, что создаёт угрозы для бизнеса, включая репутационный ущерб и нарушения нормативных требований. Для предотвращения утечек необходимы строгие политика управления данными, шифрование и анонимизация, а также обучение сотрудников», — объяснил собеседник RT.

По его словам, другая значительная опасность — склонность ИИ-систем к генерации некорректных фактов, известная как «галлюцинации».

По мнению Силаева, особую тревогу вызывает применение искусственного интеллекта в сферах, где ошибка может стоить жизни или привести к тяжёлым последствиям — например, в медицине или правоохранительной деятельности.

«Для снижения этих рисков необходимо внедрять более строгие стандарты проверки данных, обеспечивать прозрачность алгоритмов и развивать критическое мышление у пользователей», — пояснил он.


Поделиться

Возврат к списку