bg
Госуправление и сервисы для граждан
12:15, 19 марта 2026
views
8

ИИ перестанет манипулировать россиянами

В России разрабатываются законодательные нормы о запрете на манипулирование людьми с помощью ИИ. Не исключено, что появится модель, которая будет востребована и в других странах.

Минцифры, готовя законопроект об искусственном интеллекте, прорабатывает норму о запрете использования систем ИИ для манипулирования поведением человека. В том же пакете обсуждаются и другие базовые гарантии: право гражданина отказаться от обслуживания нейросетью и требование информировать его о применении ИИ в товарах и услугах. По данным СМИ, сейчас документ проходит межведомственное согласование.

Сегодня ИИ может влиять на выбор человека везде: от рекомендаций в маркетплейсах до голосовых ассистентов в сервисах госуслуг. Государственная политика заключается в том, чтобы, не мешая развитию технологий, контролировать возможные риски. Это заложено в Национальной стратегии развития ИИ. Та же цель стоит и перед президентской комиссией по вопросам развития технологий ИИ.

Модель «доверенного ИИ»

Скорее всего, будущий закон станет базой для пошагового регулирования. Сначала появятся общие запреты и обязанности, затем – подзаконные акты и разъяснения по отдельным сферам. Особенно чувствительными окажутся сервисы, где ИИ может повлиять на соблюдение прав человека, сохранность его денег или безопасность. Бизнесу потребуется вводить маркировку взаимодействия с ИИ и функцию перевода клиента на оператора-человека. Кроме того, нужно будет оценивать ИИ-сценарии на наличие навязывания.

Самое сложное в этом процессе – дать определение манипулирования. Неизбежен спор о критериях: что считать допустимой рекомендацией, а что – давлением, и как определять связь между рекомендациями сервисов и поведением человека. Сегодня заказчики оценивают не только функциональность, но и регуляторную зрелость продукта. И если в России получится создать четкую модель «ИИ, которому можно доверять», то это будет мощным преимуществом отечественных решений на мировом рынке. Впрочем, в экспорте в игру вступают уже зарубежные правила, и решающее значение будет иметь их совместимость с российскими.

Многолетний путь к регулированию

В 2021 году в России был принят Кодекс этики в сфере ИИ. Рынок и государство зафиксировали базовые принципы ответственного использования ИИ, включая приоритет прав и интересов человека. В последующие годы эксперты и профильные участники рынка все чаще говорили о необходимости комплексного регулирования ИИ в России.

В декабре 2025 года Минюст предложил разработать механизмы реагирования на негативный ИИ-контент. А уже в марте 2026 года комитет Госдумы одобрил запрет на агитацию с созданными ИИ изображениями людей. Запрет на манипулирование – логичное продолжение этого же вектора.

Похожая работа ведется и в других странах. Так, в ЕС уже принят и начал применяться AI Act с запретом части систем “неприемлемого риска”. Запрещены ИИ-системы, использующие манипулятивные техники или создающие недопустимое воздействие на поведение человека.

Шанс для разработчиков

Если норма будет принята, это станет одним из базовых принципов российского AI-регулирования. Государство не откажется от курса на массовое внедрение ИИ, но будет параллельно вводить обязательные ограничения там, где затрагиваются права человека, потребительский выбор, политическая сфера, биометрия, безопасность и критическая инфраструктура. В результате жители страны будут защищены от скрытого давления в цифровом мире. У них будет больше доверия к нейросетям, и внедрять ИИ в различные сферы станет проще.

В связи с этим в ближайшие пару лет можно ожидать бурного роста спроса на аудит ИИ-систем, правовую экспертизу алгоритмов, сервисы маркировки ИИ-контента и решения класса AI Governance и AI Compliance. Для российских разработчиков это одновременно и ограничение, и шанс: кто раньше встроит требования по прозрачности и контролю человека в продукт, тот получит конкурентное преимущество.

Запрет распространяется прежде всего на операторов и разработчиков систем ИИ, то есть на организации и компании, которые внедряют такие системы в сервисы, приложения или продукты. По сути, «объяснить» это роботу можно так: система ИИ не должна проектироваться или использоваться таким образом, чтобы сознательно подталкивать человека к решениям, которые он бы не принял без скрытого давления или манипуляции. Таким образом, ответственность лежит не на самой технологии, а на тех, кто ее создает и применяет
quote
like
heart
fun
wow
sad
angry
Последние новости
Главное
Рекомендуем
previous
next