Публичные ИИ-сервисы обрабатывают информацию на внешних серверах, поэтому регулярная смена паролей не защитит пользователя в случае утечки данных. Об этом Агентству городских новостей «Москва» сообщил заведующий лабораторией доверенного искусственного интеллекта МИРЭА — Российского технологического университета Юрий Силаев.
«Менять пароли полезно, но этого мало. Лучше использовать сложные и разные пароли для разных сервисов, включать двухфакторную защиту и хранить пароли в специальных приложениях. Однако при работе с ИИ основные риски связаны не с взломом аккаунта, а с тем, куда и как передаются данные. Поэтому важно следить за тем, какой доступ вы даёте ИИ, когда принимаете пользовательское соглашение», — рассказал он.
Эксперт посоветовал минимизировать передачу конфиденциальной информации в публичные ИИ-сервисы.
«Если работа требует использования чувствительных данных, нужно их «зашифровать» — заменить персональные или коммерчески значимые сведения на нейтральные аналоги. Например: «клиент Иванов» пусть называется «клиент A», «счёт №12345» – «счет №XXXXX», — пояснил Юрий Силаев.
Дополнительно можно применять инструменты мониторинга утечек, например, сервисы, отслеживающие появление данных в открытых источниках, добавил эксперт.
Он подчеркнул, что в условиях развития технологий ответственность за безопасность данных по-прежнему лежит на пользователе.
Ранее СМИ сообщили о масштабной утечке данных, затронувшей 16 млрд логинов и паролей. Эксперты предупредили, что с развитием ИИ подобные базы могут использоваться для автоматизированных атак и персонализированного фишинга, что делает защиту данных ещё более актуальной.
© 2025 МИРЭА - Российский технологический университет
Все права на материалы сайта mirea.ru принадлежат РТУ МИРЭА. Правила использования сайта.