В России могут запретить Искусственный интеллект
Содержание
Что задумало Минцифры
Министерство цифрового развития подготовило масштабный законопроект о регулировании технологий искусственного интеллекта. Документ уже опубликован для общественного обсуждения — в случае одобрения он вступит в силу 1 сентября 2027 года. Инициатива затрагивает всех участников рынка: от крупных корпораций до частных разработчиков. Исключение сделают лишь для сфер обороны, государственной безопасности, чрезвычайных ситуаций и правопорядка — если это не противоречит другим законам. Закон об ИИ впервые официально закрепит понятие искусственного интеллекта и чётко определит права и обязанности игроков отрасли. Помимо ограничений для зарубежных сервисов, он вводит и новые обязательства: например, обязательную маркировку фото-, видео- и аудиоматериалов, созданных с помощью нейросетей. Продавцы товаров, использующие ИИ‑технологии в рекламе или продвижении, будут обязаны предупреждать об этом покупателей.
Зарубежные нейросети под ударом
Ключевое новшество законопроекта — возможность ограничивать или полностью запрещать работу трансграничных ИИ‑сервисов. Под это определение попадают иностранные модели, при использовании которых данные пользователей уходят за рубеж. В зоне риска — популярные платформы ChatGPT (OpenAI), Claude (Anthropic) и Gemini (Google): их архитектура изначально предполагает обработку запросов на зарубежных серверах.
Опасения властей связаны с трансграничной передачей персональных данных. Запросы, диалоги и другая пользовательская информация, отправляемая разработчикам за пределы страны, может стать уязвимым звеном. Законодатели считают, что такой механизм несёт риски для цифрового суверенитета и безопасности россиян.
Для владельцев ИИ‑платформ с суточной аудиторией свыше 500 тысяч пользователей вводятся строгие правила. Им придётся:
- хранить всю информацию о российских пользователях исключительно на серверах внутри страны;
- сохранять историю запросов и персональные данные в течение трёх лет;
- предоставлять доступ к этим данным по запросу уполномоченных органов.
Эти условия создают серьёзный барьер для зарубежных решений, чья инфраструктура физически расположена за границей. Многие международные компании могут оказаться не готовы к таким изменениям — либо им придётся кардинально перестраивать свои системы.
Альтернатива есть
Законопроект не ставит крест на использовании иностранного ИИ — он предлагает безопасную альтернативу. Открытые модели, такие как Qwen (от Alibaba) и DeepSeek, можно разворачивать и дообучать в закрытом контуре на мощностях российских компаний или госорганизаций. Такой подход даёт полный контроль над хранением и обработкой данных. Вся информация остаётся внутри национальной инфраструктуры, не покидая границ страны. Это соответствует требованиям будущего закона и позволяет сохранить доступ к передовым технологиям без угрозы утечек.
Авторы инициативы подчёркивают: главная цель закона — защитить граждан от скрытых манипуляций и дискриминационных алгоритмов. Регуляторы рассчитывают минимизировать риски, связанные с использованием нейросетей в недобросовестных целях. Кроме того, россияне получат право на компенсацию вреда, причинённого неправомерным применением ИИ. При этом в текущей редакции документа пока нет чётких критериев, по которым будут запрещать или ограничивать конкретные модели. Эта неопределённость оставляет пространство для уточнений — они могут появиться в ходе общественного обсуждения до весны 2027 года. Как именно будет работать механизм ограничений и какие сервисы попадут под действие закона в первую очередь, станет ясно позже. Но уже сейчас очевидно: рынок искусственного интеллекта в России ждёт серьёзная трансформация.
Подготовлено по материалам с сайта: https://ngs.ru/text/world/2026/03/20/76321611/
21 просмотров · 16.04.2026