Позитивная лента событий

В России хотят ввести цензуру для Искусственного интеллекта

Содержание

    Государство берёт ИИ под контроль

    РоботыВ России разворачивается масштабная кампания по введению цензуры в сфере искусственного интеллекта. В апреле президент Владимир Путин поручил правительству подготовить национальный план внедрения ИИ до 2030 года — и одним из ключевых элементов этого плана станет жёсткий государственный контроль над содержанием, которое генерируют нейросети. Особое внимание уделяется созданию «суверенной» языковой модели: она должна не только обеспечивать безопасность и обороноспособность страны, но и строго соответствовать установленным идеологическим рамкам. Координацией процесса займётся специальная комиссия под руководством вице‑премьера и замглавы администрации президента. Её задачи выходят за рамки технологического развития: в числе приоритетов — оценка рисков с точки зрения информационной безопасности и согласование внедрения ИИ с учётом требований цензуры в экономике, социальной сфере и госуправлении.

    С марта 2026 года Минцифры продвигает законопроект, который закладывает основы цензурного регулирования ИИ в России. Документ не просто вводит официальное определение искусственного интеллекта, но и закрепляет понятия «суверенной» и «национальной» моделей — систем, которые должны создаваться и использоваться исключительно внутри страны, российскими компаниями и на данных, сформированных в России. Ключевой элемент законопроекта — обязательная маркировка контента, созданного нейросетями. Операторы систем ИИ будут обязаны чётко обозначать, что материал сгенерирован искусственным интеллектом, — это позволит усилить контроль над распространением информации. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой» до каждого взаимодействия с пользователем, за исключением закрытых корпоративных решений.

    Блокировка запросов и ответов

    Замглавы Минцифры Александр Шойтов выступил с радикальной инициативой: ввести систему двойной цензуры для нейросетей. По его мнению, алгоритмы, в отличие от граждан, не обладают правами и потому нуждаются в жёстком регулировании. Предлагается внедрить фильтры на двух этапах работы ИИ:

    • На входе: система будет автоматически блокировать «неправильные» вопросы ещё до того, как нейросеть начнёт обрабатывать запрос. Перечень запрещённых тем будет определяться государством.
    • На выходе: ИИ запретят выдавать информацию по определённым темам, даже если запрос прошёл первичную проверку. Это позволит исключить распространение «нежелательного» контента.

    Такой подход фактически превращает нейросети в послушных исполнителей государственной линии — они не смогут обсуждать темы, выходящие за рамки утверждённой повестки.

    Что и за что запретят?

    Законопроект предусматривает классификацию систем ИИ по уровню потенциального риска с точки зрения цензуры. Категории чётко разграничивают, какие решения допустимы, а какие — нет:

    1. Неприемлемый риск: системы, способные генерировать контент, противоречащий государственной политике, будут полностью запрещены.
    2. Высокий риск: нейросети, работающие в чувствительных сферах (здравоохранение, финансы, госуправление), подлежат обязательной госрегистрации и цензурной сертификации.
    3. Ограниченный риск: для таких систем введут добровольную сертификацию и внутренний контроль качества с акцентом на соответствие цензурным нормам.
    4. Минимальный риск: наименее «опасные» решения получат больше свободы, но всё равно останутся под наблюдением.

    Операторы систем с высоким риском будут обязаны страховать свою ответственность — в том числе за возможные нарушения цензурных ограничений.

    Кто решает, что можно говорить?

    Законопроект затрагивает и вопросы интеллектуальной собственности, напрямую связывая их с цензурными ограничениями. Владельца прав на результаты, созданные ИИ, будут определять по степени творческого вклада человека:

    • Если вклад был существенным, исключительное право остаётся за автором — но только при условии, что контент соответствует цензурным нормам.
    • Если вклада не было, право переходит к оператору системы ИИ на 50 лет — однако он обязан гарантировать, что сгенерированный материал не нарушает установленных ограничений.

    Таким образом, даже право собственности оказывается подчинено требованиям цензуры: любой контент, признанный «нежелательным», может быть заблокирован или удалён независимо от статуса правообладателя.

    Последствия цензуры

    Жёсткое цензурное регулирование ИИ вызывает серьёзные опасения у экспертов. По их мнению, избыточный контроль может привести к следующим последствиям:

    • Снижение полезности нейросетей. Если фильтры будут слишком строгими, ИИ потеряет способность давать развёрнутые и информативные ответы, превратившись в инструмент формальных отписок.
    • Отток талантов и инвестиций. Опыт Евросоюза показывает, что чрезмерное регулирование отпугивает разработчиков и инвесторов: лидеры рынка сокращают присутствие в регионе, а новые конкурентоспособные решения не появляются.
    • Рост «теневого» использования. Пользователи, которым нужен полноценный инструмент, начнут искать обходные пути — например, пользоваться зарубежными сервисами или локальными решениями с отключённой цензурой.

    Российские компании пытаются найти компромисс: с одной стороны, соблюдать требования цензуры, с другой — сохранить функциональность своих продуктов. Однако чем жёстче становятся ограничения, тем сложнее этот баланс поддерживать. В итоге главный вопрос остаётся открытым: сможет ли цензурный ИИ выполнить свою задачу, не утратив при этом свою практическую ценность?


    Подготовлено по материалам с сайта: https://fb.ru/news/ai/2026/4/14/459477


    9 просмотров · 16.04.2026


    нейросети, безопасность данных, Минцифры, суверенный ИИ, технологии, регулирование ИИ, ии, цензура, контроль ИИ, искусственный интеллект, маркировка контента, законодательство


    Чтобы оставить комментарий, авторизируйтесь через соцсети: