Машинное обучение уже прямо влияет на оказание медицинской помощи в больших и малых формах. Это приводит к необходимости постоянного пересмотра нормативного регулирования и уточнения вопросов, связанных с обеспечением безопасного, надежного и эффективного стимулирования инноваций. Новое исследование Duke рассматривает этот вопрос.
Новый отчет Центра политики в области здравоохранения имени Дюка-Марголиса (https://healthpolicy.duke.edu/) исследует необходимость изменения государственной политики и нормативного регулирования для обеспечения более безопасного и эффективного развертывания искусственного интеллекта (ИИ) в здравоохранении. Результаты работы были опубликованы в отчете «Текущее состояние и ближайшие приоритеты для программного обеспечения в области медицинской диагностики, использующего искусственный интеллект». Документ доступен по адресу https://healthpolicy.duke.edu/sites/default/files/atoms/files/dukemargolisaienableddxss.pdf
Необходимость исследования возникла на фоне понимания, что ИИ и машинное обучение становятся фактическими ингредиентами многих ключевых клинических технологий. Для того, чтобы лучше понять, как можно использовать ИИ для оптимальной аналитики и поддержки принятия врачебных решений, авторы решили подробно исследовать это направление.
Почему это важно?
В отчете Duke содержится обзор существующей нормативно-правовой базы, регулирующей разработку и применение систем поддержки принятия врачебных решений и программного обеспечения для поддержки диагностики, использующих методы искусственного интеллекта и машинного обучения. В нем также изложены некоторые важные приоритеты для работы в ближайшие годы в части обеспечения безопасного применения ИИ в клинических условиях.
Это не просто теоретические проблемы. ИИ и машинное обучение, конечно, занимают все более заметное место в злравоохранении, и действующее законодательство и нормативная политика, будь то 21st Century Cures Act или новые обновления FDA к пилотной программе предварительного сертификата программного обеспечения (Pre-Sert) - адекватны, но все же не являются оптимальными для будущего, которое обещает развиваться головокружительными темпами.
Документ Дюк-Марголис позиционируется авторами как “руководство для разработчиков, регуляторов, клиницистов, политиков и других заинтересованных сторон, поскольку они стремятся эффективно, этично и безопасно интегрировать ИИ в качестве фундаментального компонента в диагностический процесс”. Он рассматривает основные проблемы и возможности, с которыми столкнется ИИ в предстоящие годы.
Авторы документа приходят к выводу, что заинтересованным сторонам придется совместно решить ряд очень сложных вопросов, таких как:
- Доказательства в пользу более широкого внедрения технологий ИИ. Такие доказательства включают в себя то, как программное обеспечение улучшает результаты лечения пациентов, повышает качество и снижает стоимость этого лечения, предоставляет врачам соответствующую информацию, которая является “полезной и заслуживающей доверия”.
- Оценка потенциального риска использования ИИ-продуктов в клинических условиях. “Степень, в которой программный продукт поставляется с информацией, объясняющей, как он работает, а также описывает те популяции, которые были использованы для машинного обучения, будет иметь значительное влияние на оценку регуляторами и клиницистами риска применения таких продуктов для пациентов”, - отмечают исследователи Дюка. “Возможно, потребуется пересмотреть маркировку продукции и обсудить риски и преимущества непрерывного обучения по сравнению с закрытыми моделями”.
- Учет этичности и гибкости разработки продуктов. Авторы отчета обращают внимание, что все больше и больше ИИ-систем для здравоохранения должны применять действительно передовые методы, которые могли бы смягчить любые предвзятости и ошибки, связанные с применением данных, используемых для разработки программного обеспечения и машинного обучения. Это очень важно для гарантии, что “методы искусственного интеллекта, основанные на данных, не увековечивают и не усугубляют существующие клинические предубеждения”.
Кроме того, разработчикам, пользователям и регуляторам придется серьезно подумать о последствиях применения существующих данных для машинного обучения, поскольку продукты масштабируются до параметров, которые могут отличаться от первоначально задуманных сценариев использования. И, конечно, “необходимы новые парадигмы для того, как наилучшим образом защитить частную жизнь пациента”, - говорится в отчете.
Большой тренд
Технологические возможности и клинические примеры применения систем поддержки принятия решений с поддержкой AI продолжают расширяться. Исследователи Duke заявили, что для защиты пациентов требуется более четкая нормативная ясность от таких регуляторов, как FDA, которая сигнализировала бы о более широком одобрении приложений машинного обучения, уходящих от бессмысленного использования алгоритмов “черного ящика”, об опасности которых предупреждают многие эксперты.
Кроме того, есть и другие крупные аспекты, требующие уточнений: надлежащие условия обеспечения конфиденциальности пациентов и доступа к данным, а также способность этих быстро развивающихся технологий продемонстрировать ценность и окупаемость инвестиций для поставщиков. Во всех этих областях активную роль призваны играть медицинские организации и системы здравоохранения.
Есть и другие технические вопросы, которые существуют, но на них еще не были даны внятные ответы. Например: каким образом новые подходы к маркировке различных программ могут улучшить понимание их внутренней работы; как взвесить относительные риски и преимущества замкнутых и непрерывно обучающихся моделей ИИ; как наиболее эффективно оценивать его производительность с течением времени; как смягчить предвзятость данных; как оценить” алгоритмическую адаптивность” и многое другое.
«ИИ уже полностью готов нарушить сложившуюся систему медицинского обслуживания, потенциально улучшая результаты лечения пациентов, снижая затраты и улучшая баланс между работой и личной жизнью для медицинских работников. Но нам необходим политический процесс [его регулирования]», - сказал Грег Даниэль, заместитель директора по политике компании Duke-Margolis, в своем заявлении.
«Безопасная и эффективная интеграция ИИ в здравоохранение должна быть тщательно продуманным и контролируемым процессом, требуя от политиков и заинтересованных сторон поиска баланса между важнейшей работой по защите пациентов, обеспечивая при этом, чтобы инноваторы имели доступ к инструментам, необходимым им для успешного создания продуктов, повышающих качество медицинского обслуживания», - сказал он.
«Программное обеспечение систем поддержки врачебных решений с использованием искусственного интеллекта может помочь клиницистам быстрее прийти к правильному диагнозу, улучшая при этом качество медицинского обслуживания и клинические результаты», — добавила Кристина Силкокс, управляющий партнер Duke-Margolis и соавтор доклада. «Чтобы реализовать потенциал ИИ в здравоохранении, необходимо решить законодательные проблемы регулирования, использования данных и внедрения, которые замедляют безопасные и эффективные инновации».