В России хотят ввести цензуру для Искусственного интеллекта
Содержание
Государство берёт ИИ под контроль
В России разворачивается масштабная кампания по введению цензуры в сфере искусственного интеллекта. В апреле президент Владимир Путин поручил правительству подготовить национальный план внедрения ИИ до 2030 года — и одним из ключевых элементов этого плана станет жёсткий государственный контроль над содержанием, которое генерируют нейросети. Особое внимание уделяется созданию «суверенной» языковой модели: она должна не только обеспечивать безопасность и обороноспособность страны, но и строго соответствовать установленным идеологическим рамкам. Координацией процесса займётся специальная комиссия под руководством вице‑премьера и замглавы администрации президента. Её задачи выходят за рамки технологического развития: в числе приоритетов — оценка рисков с точки зрения информационной безопасности и согласование внедрения ИИ с учётом требований цензуры в экономике, социальной сфере и госуправлении.
С марта 2026 года Минцифры продвигает законопроект, который закладывает основы цензурного регулирования ИИ в России. Документ не просто вводит официальное определение искусственного интеллекта, но и закрепляет понятия «суверенной» и «национальной» моделей — систем, которые должны создаваться и использоваться исключительно внутри страны, российскими компаниями и на данных, сформированных в России. Ключевой элемент законопроекта — обязательная маркировка контента, созданного нейросетями. Операторы систем ИИ будут обязаны чётко обозначать, что материал сгенерирован искусственным интеллектом, — это позволит усилить контроль над распространением информации. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой» до каждого взаимодействия с пользователем, за исключением закрытых корпоративных решений.
Блокировка запросов и ответов
Замглавы Минцифры Александр Шойтов выступил с радикальной инициативой: ввести систему двойной цензуры для нейросетей. По его мнению, алгоритмы, в отличие от граждан, не обладают правами и потому нуждаются в жёстком регулировании. Предлагается внедрить фильтры на двух этапах работы ИИ:
- На входе: система будет автоматически блокировать «неправильные» вопросы ещё до того, как нейросеть начнёт обрабатывать запрос. Перечень запрещённых тем будет определяться государством.
- На выходе: ИИ запретят выдавать информацию по определённым темам, даже если запрос прошёл первичную проверку. Это позволит исключить распространение «нежелательного» контента.
Такой подход фактически превращает нейросети в послушных исполнителей государственной линии — они не смогут обсуждать темы, выходящие за рамки утверждённой повестки.
Что и за что запретят?
Законопроект предусматривает классификацию систем ИИ по уровню потенциального риска с точки зрения цензуры. Категории чётко разграничивают, какие решения допустимы, а какие — нет:
- Неприемлемый риск: системы, способные генерировать контент, противоречащий государственной политике, будут полностью запрещены.
- Высокий риск: нейросети, работающие в чувствительных сферах (здравоохранение, финансы, госуправление), подлежат обязательной госрегистрации и цензурной сертификации.
- Ограниченный риск: для таких систем введут добровольную сертификацию и внутренний контроль качества с акцентом на соответствие цензурным нормам.
- Минимальный риск: наименее «опасные» решения получат больше свободы, но всё равно останутся под наблюдением.
Операторы систем с высоким риском будут обязаны страховать свою ответственность — в том числе за возможные нарушения цензурных ограничений.
Кто решает, что можно говорить?
Законопроект затрагивает и вопросы интеллектуальной собственности, напрямую связывая их с цензурными ограничениями. Владельца прав на результаты, созданные ИИ, будут определять по степени творческого вклада человека:
- Если вклад был существенным, исключительное право остаётся за автором — но только при условии, что контент соответствует цензурным нормам.
- Если вклада не было, право переходит к оператору системы ИИ на 50 лет — однако он обязан гарантировать, что сгенерированный материал не нарушает установленных ограничений.
Таким образом, даже право собственности оказывается подчинено требованиям цензуры: любой контент, признанный «нежелательным», может быть заблокирован или удалён независимо от статуса правообладателя.
Последствия цензуры
Жёсткое цензурное регулирование ИИ вызывает серьёзные опасения у экспертов. По их мнению, избыточный контроль может привести к следующим последствиям:
- Снижение полезности нейросетей. Если фильтры будут слишком строгими, ИИ потеряет способность давать развёрнутые и информативные ответы, превратившись в инструмент формальных отписок.
- Отток талантов и инвестиций. Опыт Евросоюза показывает, что чрезмерное регулирование отпугивает разработчиков и инвесторов: лидеры рынка сокращают присутствие в регионе, а новые конкурентоспособные решения не появляются.
- Рост «теневого» использования. Пользователи, которым нужен полноценный инструмент, начнут искать обходные пути — например, пользоваться зарубежными сервисами или локальными решениями с отключённой цензурой.
Российские компании пытаются найти компромисс: с одной стороны, соблюдать требования цензуры, с другой — сохранить функциональность своих продуктов. Однако чем жёстче становятся ограничения, тем сложнее этот баланс поддерживать. В итоге главный вопрос остаётся открытым: сможет ли цензурный ИИ выполнить свою задачу, не утратив при этом свою практическую ценность?
Подготовлено по материалам с сайта: https://fb.ru/news/ai/2026/4/14/459477
9 просмотров · 16.04.2026