О разработке законопроекта сообщило издание РБК, сославшись на несколько знакомых с ситуацией источников. РБК также приводит выдержки из проекта. Так, в пояснительной записке уточняется, что инициатива подготовлена в целях реализации Национальной стратегии развития ИИ до 2030 года.
Законопроектом предлагается ввести определение понятий искусственного интеллекта, а также технологий и систем на его основе. Кроме того, авторы считают необходимым внедрить требования по маркировке таких систем в виде обязательного информационного обозначения, а также их классификацию по уровню потенциального риска (системы с неприемлемым, высоким, ограниченным, минимальным уровнями риска). Разработку и использование систем с неприемлемым уровнем риска в России предлагается запретить.
Помимо этого, в документе есть пункт о введении ответственности для разработчиков технологий на основе ИИ за причинение вреда жизни, здоровью или имуществу пользователей. Однако, как указывается в проекте регламента, ответственность за такие последствия не наступит, если создатель ИИ-решения принял все меры для предотвращения причинения вреда или если пользователь сам нарушил правила эксплуатации системы.
В случае если документ утвердят в актуальной на данный момент редакции, системы ИИ с высоким уровнем риска должны в обязательном порядке пройти сертификацию в течение двух лет в момента принятия регламента.
«Похоже, что время для регулирования ИИ выбрано очень удачно», – поделилась мнением с Vademecum старший юрист Seven Hills Legal Наталия Спицына. Она добавила, что такие инструменты активно используются в разных областях, в том числе в здравоохранении: «Только за 11 месяцев 2024 года российские больницы объявили тендеры на покупку ИИ-решений на внушительную сумму – 514,3 млн рублей».
При этом, отмечает Спицина, «некоторые важные вопросы, связанные с работой ИИ», пока не урегулированы должным образом: «На мой взгляд, в первую очередь нужно установить, в какой мере разработчики ИИ несут ответственность за ошибки созданных ими программ. Также важно определить требования к уведомлению пациентов об использовании при их диагностике и/или лечении ИИ. Кроме того, генеративный ИИ также начинает использоваться в медицинской практике, и здесь особенно остро стоит вопрос: кому принадлежат права на произведения, которые «создает» ИИ? Поскольку сейчас закон это не регулирует, многие разработчики пытаются сами определить, кто за что отвечает и кому принадлежат права, устанавливая это в правилах использования своих сервисов».
Однако, указала юрист, «существует риск избыточного регулирования, которое может затормозить инновации и увеличить административную нагрузку» на разработчиков и медучреждения: «Если ввести слишком сложные процедуры регистрации и сертификации, разработка и внедрение ИИ-решений могут стать дороже, что в итоге может сказаться на доступности новых технологий для пациентов». В качестве примера эксперт привела медизделия с технологиями на основе ИИ, которые уже проходят экспертизу и регистрацию, а также обратила внимание на то, что вопросы обработки личных данных регулируются «базовым» ФЗ-152 «О защите персональных данных». «Важно, чтобы новый закон не добавлял лишних требований там, где интересы пользователей ИИ уже достаточно защищены», – резюмировал Наталия Спицына.
По словам зампреда Комитета Госдумы по информационной политике Андрея Свинцова, в ближайшие месяцы будет подготовлено несколько инициатив, направленных на «точечное» регулирование отдельных сфер отрасли. Среди прочего этими вопросами занимается специальная группа «по разработке всего, что связано с законодательством в области ИИ», – ее создали по поручению председателя нижней палаты парламента Вячеслава Володина. Несмотря на это, появление законопроекта, который бы регламентировал всю деятельность ИИ, на уровне Госдумы в этом году не ожидается, отметил Свинцов.
В марте 2025 года межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медицинских изделий и сервисов с использованием технологий ИИ утвердила Кодекс этики применения ИИ в сфере охраны здоровья. О том, как разработчики ИИ-решений, представители врачебного сообщества и медвузов оценили нововведение – в материале Vademecum.