В России разрабатывается проект закона «О регулировании систем искусственного интеллекта», который может в корне изменить подход к созданию и использованию ИИ в стране. По информации РБК, над документом работает профильная рабочая группа, в которую входят юристы, представители ИТ-бизнеса и консалтинговых компаний. Инициатива уже обсуждается в Госдуме, «Деловой России» и на специализированных площадках.
Документ направлен на реализацию положений Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Однако пока законопроект носит статус черновика — как сообщил Андрей Свинцов, зампред комитета по информационной политике Госдумы, инициативы пока не вышли на этап активного рассмотрения. В 2025 году могут появиться точечные предложения, касающиеся отдельных отраслей и пилотных зон.
Что предусматривает законопроект
Согласно документу, предлагается системный подход к регулированию ИИ, включая следующие ключевые положения:
- Введение чётких понятий ИИ, технологий ИИ, систем ИИ, а также роли разработчика, оператора и пользователя таких систем.
- Обязательная маркировка ИИ-систем — пользователь должен быть заранее и явно уведомлён о взаимодействии с нейросетью. Это не коснётся внутренних ИТ-систем и автоматизации в организациях.
- Классификация ИИ по уровням риска: неприемлемый, высокий, ограниченный и минимальный. Запрет будет распространяться на системы с неприемлемым уровнем риска — например, угрожающие жизни или нарушающие права человека.
- Обязательная государственная сертификация для систем с высоким уровнем риска (здравоохранение, транспорт, финансы и др.).
- Введение ответственности за причинение вреда жизни, здоровью или имуществу, с возможностью освобождения от неё при соблюдении условий эксплуатации. Также предусматривается обязательное страхование для операторов ИИ высокого риска.
- Определение авторских прав на результаты, созданные с использованием ИИ — если был творческий вклад человека, права принадлежат ему; в противном случае — оператору системы.
Если законопроект будет принят, операторам и разработчикам дадут год на соблюдение новых требований, а существующие ИИ-системы с высоким уровнем риска должны пройти сертификацию в течение двух лет.
Опасения бизнеса
Несмотря на проработанность инициативы, представители индустрии выражают опасения. По данным РБК, ранее в правительстве придерживались мнения, что регулирование ИИ преждевременно. Вице-премьер Дмитрий Григоренко в феврале 2024 года прямо заявлял, что такие шаги в ближайшие два года не планируются.
Один из собеседников издания, представитель ИТ-компании, отметил, что российские игроки уже используют механизмы саморегулирования, маркируют ИИ-контент и следуют отраслевым стандартам. Но поспешное и жёсткое регулирование может замедлить развитие важнейшей технологической отрасли, сузить возможности бизнеса и пользователей и привести к технологическому отставанию.
Пример негативного воздействия жёстких норм — ситуация в ЕС, где после принятия AI Act, по его словам, наблюдается сокращение активности крупных разработчиков, а конкурентоспособные локальные решения практически не появляются.
По мнению Романа Хазеева, директора по цифровым технологиям «Ростелекома», ни одна страна пока не выработала полноценную юридическую базу для оценки ответственности за действия нейросетей. Он считает, что регулирование должно появляться только после стабилизации процессов и чёткой формализации возникающих проблем.
«Яндекс», МТС и VK от комментариев отказались. РБК направил запрос в «Сбер».
Как ИИ регулируют в других странах
В марте 2024 года Европарламент принял Регламент об ИИ (AI Act), запрещающий использование нейросетей для манипулирования людьми, проведения массовой биометрической идентификации в реальном времени и систем социального рейтинга. Системы с высоким риском должны проходить обязательную оценку до запуска. За нарушение предусмотрены штрафы до €40 млн или 7% годового оборота компании.
В США в марте 2024 года представили законопроект о маркировке видео и аудио, созданных с помощью ИИ.
В Китае с 1 сентября 2025 года начнут действовать новые правила: платформы обязаны уведомлять пользователей, что контент создан нейросетями, а магазины приложений — проверять, соблюдаются ли правила маркировки. Это направлено на борьбу с фейками.
В России идея маркировки ИИ-контента обсуждается с 2022 года. В 2024 году в Госдуме начали разрабатывать соответствующую концепцию. В феврале Андрей Свинцов вновь призвал к введению обязательной маркировки.
Обновления программ, что нового
• Старые смартфоны Samsung Galaxy начнут получать стабильную версию One UI 7 уже на следующей неделе
• Dimensity 9400+ от MediaTek: новый чип против Snapdragon 8 Elite
• Сбой в WhatsApp: сообщения не отправляются в групповые чаты
• Razer запустила PC Remote Play — сервис для стриминга игр с Windows ПК на iPhone, iPad и Android
• РБК: В России обсуждают запрет опасного ИИ, маркировку контента и ответственность разработчиков нейросетей
• Yandex Research: Метод HIGGS позволяет запускать большие языковые модели (LLM) на ноутбуках без потери качества