ИИ перестанет манипулировать россиянами
В России разрабатываются законодательные нормы о запрете на манипулирование людьми с помощью ИИ. Не исключено, что появится модель, которая будет востребована и в других странах.

Минцифры, готовя законопроект об искусственном интеллекте, прорабатывает норму о запрете использования систем ИИ для манипулирования поведением человека. В том же пакете обсуждаются и другие базовые гарантии: право гражданина отказаться от обслуживания нейросетью и требование информировать его о применении ИИ в товарах и услугах. По данным СМИ, сейчас документ проходит межведомственное согласование.
Сегодня ИИ может влиять на выбор человека везде: от рекомендаций в маркетплейсах до голосовых ассистентов в сервисах госуслуг. Государственная политика заключается в том, чтобы, не мешая развитию технологий, контролировать возможные риски. Это заложено в Национальной стратегии развития ИИ. Та же цель стоит и перед президентской комиссией по вопросам развития технологий ИИ.

Модель «доверенного ИИ»
Скорее всего, будущий закон станет базой для пошагового регулирования. Сначала появятся общие запреты и обязанности, затем – подзаконные акты и разъяснения по отдельным сферам. Особенно чувствительными окажутся сервисы, где ИИ может повлиять на соблюдение прав человека, сохранность его денег или безопасность. Бизнесу потребуется вводить маркировку взаимодействия с ИИ и функцию перевода клиента на оператора-человека. Кроме того, нужно будет оценивать ИИ-сценарии на наличие навязывания.
Самое сложное в этом процессе – дать определение манипулирования. Неизбежен спор о критериях: что считать допустимой рекомендацией, а что – давлением, и как определять связь между рекомендациями сервисов и поведением человека. Сегодня заказчики оценивают не только функциональность, но и регуляторную зрелость продукта. И если в России получится создать четкую модель «ИИ, которому можно доверять», то это будет мощным преимуществом отечественных решений на мировом рынке. Впрочем, в экспорте в игру вступают уже зарубежные правила, и решающее значение будет иметь их совместимость с российскими.

Многолетний путь к регулированию
В 2021 году в России был принят Кодекс этики в сфере ИИ. Рынок и государство зафиксировали базовые принципы ответственного использования ИИ, включая приоритет прав и интересов человека. В последующие годы эксперты и профильные участники рынка все чаще говорили о необходимости комплексного регулирования ИИ в России.
В декабре 2025 года Минюст предложил разработать механизмы реагирования на негативный ИИ-контент. А уже в марте 2026 года комитет Госдумы одобрил запрет на агитацию с созданными ИИ изображениями людей. Запрет на манипулирование – логичное продолжение этого же вектора.
Похожая работа ведется и в других странах. Так, в ЕС уже принят и начал применяться AI Act с запретом части систем “неприемлемого риска”. Запрещены ИИ-системы, использующие манипулятивные техники или создающие недопустимое воздействие на поведение человека.

Шанс для разработчиков
Если норма будет принята, это станет одним из базовых принципов российского AI-регулирования. Государство не откажется от курса на массовое внедрение ИИ, но будет параллельно вводить обязательные ограничения там, где затрагиваются права человека, потребительский выбор, политическая сфера, биометрия, безопасность и критическая инфраструктура. В результате жители страны будут защищены от скрытого давления в цифровом мире. У них будет больше доверия к нейросетям, и внедрять ИИ в различные сферы станет проще.
В связи с этим в ближайшие пару лет можно ожидать бурного роста спроса на аудит ИИ-систем, правовую экспертизу алгоритмов, сервисы маркировки ИИ-контента и решения класса AI Governance и AI Compliance. Для российских разработчиков это одновременно и ограничение, и шанс: кто раньше встроит требования по прозрачности и контролю человека в продукт, тот получит конкурентное преимущество.









































