Ключевые риски, связанные со взаимодействием с искусственным интеллектом, охватывают не только технические аспекты, но и социальные, психологические и этические вопросы, рассказал в беседе с RT Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
Современные ИИ-системы, особенно генеративные модели, становятся всё более интегрированными в нашу повседневную жизнь, что требует осознанного подхода к их использованию. Одной из наиболее серьёзных опасностей является риск утечки личной информации. ИИ-системы, особенно большие языковые модели, обучаются на огромных массивах данных, которые могут включать конфиденциальную информацию: персональные данные, финансовые транзакции, медицинские записи и даже интеллектуальную собственность», — отметил эксперт.
Важно понимать, что риски усугубляются практикой «теневого ИИ» — использования сотрудниками инструментов ИИ без одобрения IT-отделов, рассказал аналитик.
«Это приводит к тому, что конфиденциальные корпоративные данные (например, ценовые стратегии или условия контрактов) попадают в незащищённые внешние системы, что создаёт угрозы для бизнеса, включая репутационный ущерб и нарушения нормативных требований. Для предотвращения утечек необходимы строгие политика управления данными, шифрование и анонимизация, а также обучение сотрудников», — объяснил собеседник RT.
По его словам, другая значительная опасность — склонность ИИ-систем к генерации некорректных фактов, известная как «галлюцинации».
По мнению Силаева, особую тревогу вызывает применение искусственного интеллекта в сферах, где ошибка может стоить жизни или привести к тяжёлым последствиям — например, в медицине или правоохранительной деятельности.
«Для снижения этих рисков необходимо внедрять более строгие стандарты проверки данных, обеспечивать прозрачность алгоритмов и развивать критическое мышление у пользователей», — пояснил он.
© 2025 МИРЭА - Российский технологический университет
Все права на материалы сайта mirea.ru принадлежат РТУ МИРЭА. Правила использования сайта.