16 Ноября 2025

Исследование: чат-боты с ИИ регулярно нарушают этические стандарты психотерапии
Дарья Березина
Мединдустрия Искусственный интеллект
23 октября 2025, 15:20

Фото: freepik.com/ автор: freepik
1800

Исследователи из Университета Брауна в США выявили, что большие языковые модели, включая ChatGPT, Claude и Llama*, регулярно нарушают базовые этические принципы, лежащие в основе практики психотерапии. По данным исследователей, даже при использовании корректных профессиональных инструкций – например, с просьбой действовать как когнитивно-поведенческий терапевт, – такие системы допускают ошибки, способные причинить вред пользователю. Результаты исследования были представлены 22 октября 2025 года на конференции AAAI/ACM по искусственному интеллекту (ИИ), этике и обществу.

Работа проведена совместно со специалистами по компьютерным наукам и психическому здоровью. Ученые наблюдали, как консультанты, обученные методам когнитивно-поведенческой терапии, взаимодействуют с чат-ботами, настроенными на выполнение терапевтических задач. Затем переписки были переданы лицензированным психологам, которые оценили их с точки зрения профессиональной этики. В результате эксперты зафиксировали 15 типов нарушений, сгруппированных в пять категорий. Среди них – игнорирование контекста жизни пользователя, навязывание универсальных советов без учета индивидуальных особенностей, чрезмерное доминирование чат-бота в разговоре, подкрепление ошибочных убеждений, использование фраз, создающих иллюзию эмпатии, проявление культурных и гендерных предубеждений, а также отсутствие адекватных действий при обсуждении кризисных тем вроде самоубийства или насилия.

По словам авторов, даже при тщательной настройке ИИ остается склонным к системным этическим ошибкам. Проблема заключается не только в том, что модели не обладают сознанием, но и в отсутствии ответственности: у них нет регулирующих органов, профессиональных стандартов и механизмов последствий за ошибку. Исследователи подчеркивают, что такие нарушения особенно опасны, поскольку чат-боты все чаще используются как инструменты самопомощи или дистанционного консультирования при тревожных расстройствах и депрессии. Многие коммерческие сервисы на рынке ментального здоровья представляют собой просто версии общих языковых моделей, адаптированные под терапевтические сценарии.

Профессор информатики, руководитель Национального научного института по разработке надежных ИИ-ассистентов Элли Павлик отметила, что сегодня создать и запустить систему гораздо проще, чем объективно оценить ее влияние. Чтобы выявить эти нарушения, потребовался год работы и участие клинических экспертов, в то время как большинство ИИ-проектов оцениваются автоматическими метриками, не учитывающими человеческий фактор.

Авторы не призывают отказаться от применения ИИ в психотерапии. Напротив, они считают, что технологии могут помочь снизить барьеры к получению психологической помощи, особенно в условиях дефицита специалистов и высокой стоимости терапии. Однако исследование показывает, что для безопасного использования ИИ необходимо выработать новые стандарты – этические, образовательные и правовые, сопоставимые по строгости с требованиями к лицензированным психологам.

В России аналогичный подход уже начал формироваться: в марте 2025 года Минздрав утвердил Кодекс этики применения искусственного интеллекта в сфере охраны здоровья, который закрепляет принципы прозрачности, недискриминации и подотчетности таких систем. Так, ИИ сможет стать поддержкой для системы психического здоровья, но без надзора и профессиональной оценки рискует усугубить существующие проблемы.

На фоне дискуссий о рисках этического характера в медицине появляются и позитивные примеры применения ИИ. Так, исследователи из Медцентра Стэнфорда проверили, как большие языковые модели справляются с задачей выявления признаков депрессии и тревожности у пациентов с диабетом по их сообщениям в защищенных медицинских порталах. Три из пяти протестированных систем показали результативность выше 90% по ключевым метрикам.

* Проект компании Meta, которая признана экстремистской организацией и запрещена в России

Источник: Брауновский университет

ИИ в здравоохранении. Дайджест Vademecum за 9–15 ноября 2025 года

Картина дня: дайджест главных новостей от 14 ноября 2025 года

Компании из фарммедпрома намерены вложить свыше 10 млрд рублей в производство в ЕАО

Клиницисты стали чаще жаловаться на медизделия в Росздравнадзор

В России к марту 2026 года завершится переход к правилам GMP ЕАЭС

В сети клиник «К+31» сменились управленцы

«Честный знак» планируют интегрировать с системой госзакупок к 2026 году

Депутаты Госдумы предложили установить базовую ставку зарплаты врачей не ниже трехкратного МРОТ

Требования к работе медорганизаций и фармкомпаний в новых регионах могут продлить до 2027 года

В Уральском ГМУ назначили ректора и нескольких новых проректоров

Карьера

14.11.2025