Минздрав РФ утвердил Кодекс этики применения искусственного интеллекта (ИИ) в сфере охраны здоровья. Основной задачей документа заявлено определение прав и обязанностей субъектов ИИ, а также механизмов регулирования применения кодекса. Vademecum пообщался с разработчиками тематических ИИ-решений, представителями врачебного сообщества и медвузов, предложив экспертам оценить прикладное значение нового регламента для развития индустрии здравоохранения.
Владимир Арлазаров, гендиректор Smart Engines, доктор технических наук:
– Главная проблема использования ИИ-технологий в здравоохранении – сложность определения ответственности в случае ошибки. Цена таких ошибок в медицине чрезвычайно высока, что подтверждают истории с IBM Watson и системой Botkin.AI, приостановленной из-за потенциальных рисков для здоровья пациентов.
Даже сами разработчики ИИ нередко сомневаются в границах применения своих технологий, однако это не означает, что искусственный интеллект бесполезен в медицине. В недавнем исследовании мы, например, показали, что ИИ способен помочь избежать погрешностей в области КТ, где даже небольшие отклонения могут приводить к серьезным последствиям.
Использование ИИ в качестве помощника врача, способного давать специалисту советы и предлагать второе мнение, будет совершенно обоснованным. Это повысит и качество медицинского обслуживания, и доверие к врачам. Однако в случае с конфиденциальностью мы будем иметь дело с обратным трендом. Насколько надежно будут храниться данные пациентов, неизвестно.
Единственная достаточная мера регулирования, когда речь идет о жизни человека, – это Уголовный кодекс. Если за нарушение будет предусмотрено серьезное уголовное наказание, это популяризирует среди разработчиков ответственный подход. Уже есть кодексы этики врача и ученого, они существуют и развиваются на протяжении тысячелетий. И создание новых кажется избыточным шагом – достаточно всего лишь следовать старым. А чтобы они работали, необходимо все четко прописать на законодательном уровне, контролировать соблюдение и наказывать нарушителей по всей строгости закона.
Петр Кшнякин, руководитель отдела проектного менеджмента, производства и инжиниринга Института инновационного развития СамГМУ:
– Основные проблемы использования ИИ в здравоохранении – недостаток доказательств эффективности и безопасности таких решений, трудности с интерпретацией результатов, к которым пришли алгоритмы, сложность процесса вывода ИИ из эксплуатации в случае его критического сбоя.
Кодекс этики действительно стремится найти ответы на эти вызовы – внедряет дополнительные обязательства в ограничении автономности искусственного интеллекта, обеспечении прозрачности и объяснимости алгоритмов. Регламентирует процессы и вносит новые требования, что, безусловно, приведет к увеличению затрат на разработку систем ИИ и возникновению дополнительной ответственности за возможный вред, который может нанести ИИ-технология. Однако кодекс также упростит порядок взаимодействия разработчиков с регуляторами и медучреждениями. И все же эти аспекты остаются на уровне рекомендаций и отсылают операторов к законодательству.
Многие разработчики уже сейчас следуют закону 152-ФЗ «О персональных данных», использовавшемуся в том числе при проектировании кодекса, и регистрируют ИИ-решения как медизделия. Но в деятельности разработчиков существуют и расхождения с положениями нового документа, например, в области «проблемы черного ящика» (трудности с интерпретацией результатов, к которым пришли алгоритмы) и непрерывного обучения искусственного интеллекта. Эти вопросы остаются нерешенными, что создает определенные несоответствия, по крайней мере относительно некоторых систем ИИ.
Поэтому кодекс – это очень важный первый шаг, но не единственный, который важно сделать на пути упорядочения применения ИИ. Для того чтобы повысить доверие пациентов и врачей к новым технологиям, важно также активно информировать население и профсообщество о том, что искусственный интеллект может быть полезным инструментом, который помогает в медицинской практике, при этом его использование должно быть контролируемым.
Николай Карпинский, кистевой хирург Lahta Clinic:
– Первый раз слышу о кодексе, вряд ли он что-то решает. Тем не менее как непосредственный участник клинического процесса могу сказать: ИИ мало используется в медицине, я пока наблюдаю невысокую осведомленность врачей и редкое применение этой технологии. Чтобы это изменить, необходимо информирование с использованием конкретных примеров и обсуждение определенных кейсов.
Кодекс априори не может быть достаточной мерой регулирования, но его появление положит начало дискуссии по данному вопросу. Не так важен сам текст кодекса, как процесс его появления. Чем шире будет обсуждение и вовлечение заинтересованных сторон, тем большее влияние он будет оказывать. Если разработчики будут знать о кодексе, существует вероятность внедрения его идей в практику. Я думаю, закрепление некоторых тезисов позитивно скажется на отрасли.
Что касается влияния кодекса на ситуацию с конфиденциальностью данных пациентов, считаю эту проблему переоцененной.
Андрей Алмазов, директор по проектной деятельности ассоциации «Национальная база медицинских знаний»:
– Изначально кодекс – не строгий свод указаний, а некоторый документ, который принимается сообществом как ориентир для деятельности и поведения. Помните из «Пиратов Карибского моря»: «Кодекс – это просто свод указаний, а не жестких законов». Кодексы исторически используются там, где сложно написать строгие законы или в этом просто нет необходимости.
По моему мнению, кодекса более чем достаточно для регулирования вопросов использования ИИ в медицине, и даже без него можно было бы обойтись, потому что это новая технология и она с большим трудом входит в жизнь, а риски вполне контролируются текущим регулированием отрасли. Если же мы хотим отставать в этом направлении, то давайте, конечно, дополнительно его регулировать жесткими нормативными актами: чем больше их будет, тем дальше в хвосте и окажемся. Разработчикам кодекс жизнь также не упростит. Его основная проблема заключается в том, что он создавался не профсообществом, как это предполагается в случае с таким видом документов, а Минздравом. Когда кодекс становится каким-то странным нормативным актом, спускаемым сверху, боюсь, ничего позитивного для разработчиков и, кстати, для врачей от него ждать не приходится. Хотя, скорее всего, это станет очередной бессмысленной «пиар-бумагой».
Если же обратиться к нормам кодекса предметно, то вновь возникнет много вопросов. Например, статья 3.2 определяет право юрлиц – субъектов ИИ «участвовать в выработке государственной политики и нормативно-правового регулирования в области применения систем ИИ в здравоохранении». Как наши разработчики могут в этом участвовать? Наша ассоциация очень хорошо знает, как сложно на практике хотя бы чуть-чуть поучаствовать в этом процессе.
Проблемы развития и внедрения ИИ, что, кстати, является стратегическим направлением в нашей стране, в последнюю очередь предполагают разработку какого-то там кодекса. Есть много задач, которыми стоило бы заняться Минздраву в этом направлении с большим энтузиазмом и энергией. А польза или вред от кодекса будут видны дальше: будут ли операторы и регуляторы ссылаться на него в своих действиях и что вообще из этого выйдет. А главное, кого и насколько жестко будут наказывать за его несоблюдение, потому что «наказание» у нас – самый главный инструмент регулирования везде.