bg
Новости
08:18, 23 сентября 2025
views
7

В России начали разработку национального стандарта безопасности для искусственного интеллекта

Федеральная служба по техническому и экспортному контролю приступила к созданию первого в стране специализированного стандарта по безопасной разработке систем искусственного интеллекта

Фото: iStock

Документ, который планируется представить до конца 2025 года, будет направлен на устранение специфических киберугроз, присущих ИИ.

Официально работу над новым стандартом подтвердил первый заместитель директора службы Виталий Лютиков. Выступая на форуме «BIS-2025», он сообщил, что проект планируется вынести на общественное обсуждение уже в ближайшие месяцы.

Новый документ станет не заменой, а важным дополнением к действующим «Требованиям по безопасной разработке программного обеспечения». Как пояснил директор департамента расследований T.Hunter Игорь Бедеров, стандарт SDLC охватывает общие практики, но ИИ-системы имеют фундаментальные отличия и требуют особого подхода к моделированию угроз на всех этапах жизненного цикла.

Стандарт задаст методику создания защищённых ИИ-решений, прежде всего для государственных информационных систем. Вместе с тем эксперты считают, что он станет ориентиром и для коммерческого сектора.

Презентация проекта запланирована на конец 2025 года. При этом, как отмечает консультант по безопасности Positive Technologies Алексей Лукацкий, тема безопасности ИИ уже частично отражена в новом 117-м приказе ФСТЭК, который вступит в силу 1 марта 2026 года. Однако приказ лишь формулирует требования, тогда как разрабатываемый стандарт даст конкретные инструкции по их выполнению.

Появление национального стандарта безопасности ИИ позволит систематизировать подходы к защите перспективных технологий на этапе их создания.

like
heart
fun
wow
sad
angry
Последние новости
Главное
Рекомендуем
previous
next
В России начали разработку национального стандарта безопасности для искусственного интеллекта | IT Russia