20.10.2020565

СМИ: Компьютерное зрение в медицине

СМИ: Компьютерное зрение в медицине

Искусственный интеллект (ИИ) в здравоохранении переживает период хайпа. У всех разработчиков масса амбиций, начиная от мелких стартапов и заканчивая крупными транснациональными вендорами и производителями медицинского оборудования, которые предлагают самые разные алгоритмы, сервисы и т. д. Однако создание решений на основе искусственного интеллекта для медицины и здравоохранения – это не только новые возможности, но и многочисленные проблемы. В статье, опубликованной в журнале «Системы безопасности», д.м.н., заместитель директора  Центра диагностики и телемедицины по научной работе Антон Владзимирский рассмотрел барьеры, которые нужно преодолеть на этом пути заранее, чтобы не совершать типичные ошибки, а также ответил на главный вопрос, который волнует абсолютно всех: заменит ли ИИ врача в будущем?

Большое количество команд разработчиков, давно и профессионально занимающихся системами компьютерного зрения, искусственным интеллектом и нейронными сетями, активно идут в сферу здравоохранения. Порой это специалисты с  потрясающими перспективами, большим опытом и готовыми продуктами, которые успешно внедряются в промышленности, на транспорте и др. Но все они приходят в абсолютно новую для себя область, которая живет по своим собственным законам и правилам. А главное в ней то, что ценой даже за малейшую ошибку может стать жизнь человека.

Доказательная медицина

Когда речь идет о цифровизации в медицине, очень часто говорят о консервативности врачей, сопротивлении врачебного сообщества и т. д. Но так считают те, кто не понимает, каким путем здесь формируются решения, как внедряются любые технологии, будь то таблетка, новый вид скальпеля или цифровой продукт.

Если посмотреть на типовую пирамиду доказательной медицины с разными уровнями доказательности научных исследований, то, к сожалению, подавляющее количество продуктов на базе искусственного интеллекта пока расположены на ее «дне». Другими словами, это единичные описания единичных случаев. Для профессионального сообщества такая мизерная информация доказательным аргументом не является.

Это значит, что надо не только разрабатывать алгоритмы на основе ИИ, но и идти путем научной валидации, растить опыт, доходить до уровня исследований и затем – метаанализов и клинических рекомендаций.

Повышение производительности и точности скринингов

В указе президента «О развитии искусственного интеллекта в Российской Федерации» № 490 от 10.10.2019 г. есть отдельное положение о повышении качества услуг здравоохранения за счет использования технологий ИИ. Потенциально внедрение искусственного интеллекта в медицине открывает большие возможности для контроля качества и автоматизации участков производственных процессов, которые достаточно типизированы и состоят из повторения рутинных операций. Чаще всего такими процессами являются скрининги и профилактические исследования, когда однотипная стандартизированная диагностика выполняется на больших объемах пациентов. Так как это условно здоровые люди, то при массовом анализе значительная часть исследований представляет собой норму и, как следствие, идеальный вариант для автоматизации.

Глобальные исследования подтверждают данную точку зрения. Согласно опросу Европейского общества рентгенорадиологии (European Society of Radiology), большинство врачей отдает предпочтение использованию ИИ для скрининга онкологических и сердечно-сосудистых заболеваний.

Кто несет ответственность?

Что касается разделения ответственности врача и искусственного интеллекта, то к этому вопросу медицинские работники относятся скептически. Многие из них считают, что само по себе заключение без валидации врачом пациент вряд ли может воспринять.

Другое дело – разделение ответственности между врачом и разработчиком ИИ-решения. Ведь просто разработать алгоритм и передать его в медицину не получится. Придется нести ответственность за работу этого алгоритма и в длительной перспективе.

Кроме того, на всех этапах разработки решения для здравоохранения обязательно участие врачей, причем как специалистов в сфере клинической дисциплины, которой адресовано конкретное решение, так и специалистов по организации здравоохранения.

Качество валидации ИИ для диагностики

Основная проблема, с которой сталкиваются разработчики ИИ для медицины, – это качество и стандартизация исходных данных. В большинстве случаев разработчики берут отдельно взятый датасет, чаще всего принадлежащий одной больнице, тренируют на нем алгоритм и выпускают в свет. Если цель – получить инвестиции, то такой подход позволит это сделать. Но если нужно создать продукт, который будет массово работать в системе здравоохранения в стране и за рубежом, то подход неприемлем, так как результаты работы ИИ обычно оказываются невоспроизводимыми на других датасетах, диагностических устройствах, другой популяции и т. д. То есть нет валидации алгоритмов на независимых данных при разработке, а значит предлагаемый ИИ не сможет работать «за пределами» известного ему датасета.

Далее в игру вступает доказательная медицина. Если не показать врачу метрики диагностической точности алгоритма, не назвать значения площади под кривой, чувствительности, специфичности, то команда может быть сколько угодно профессиональной, а инвестиции огромными, но никто в медицинском сообществе не будет принимать это во внимание. В медицине ИИ должен пройти научную оценку, клинические испытания, наконец – получить регистрационное свидетельство в качестве медицинского изделия. Только после этого можно рассчитывать на массовое применение алгоритма. Причем такая ситуация носит глобальный характер, в каждой развитой стране есть своя система сертификации изделий и средств для здравоохранения.

Также результаты работы алгоритма обязательно должны быть воспроизводимы и объяснимы. Недостаточно сказать врачу, что на одном снимке есть патология, а на другом ее нет. Недостаточно просто показать те области, которые вызвали у алгоритма интерес и сомнение, необходимо объяснить, почему он принял то или иное решение.

Мы сталкивались с известными ситуациями, когда алгоритм учили на компьютерных томограммах буквально находить белое на черном, и в итоге он не понимал разницу между очагом в легком и содержимым кишечника.

Когда врач видит подобную картинку, он больше не будет работать с этим алгоритмом, и здесь дело не в его косности или консерватизме, а в том, что это элементарные вещи: сначала научить алгоритм находить легкие на изображении, понимать их анатомические границы, а уже потом искать очаги. Типичные грубые ошибки происходят и тогда, когда ищут просто какие-то образования без привязки к анатомическим ориентирам, и очагом заболевания может оказаться все что угодно, вплоть до застежки на нижнем белье.

Эффективный ИИ в медицине

За искусственным интеллектом в медицине большое будущее, хотя этот инструмент еще только формируется. Способен ли ИИ когда-нибудь заменить врача? Нет, этого никогда не будет, и не нужно даже грезить об этом. Но настоящий искусственный интеллект станет замечательным помощником для медицинского работника: поможет профилактировать ошибки и дефекты, автоматизировать рутинные операции, ускорить оказание медицинской помощи. В результате это приведет к тому, что не ИИ заменит врача, а врач, использующий ИИ, заменит врача, который его не использует.

Читайте далее: опыт сотрудничества с разработчиками, ИИ как медицинское изделие, московский эксперимент по применению компьютерного зрения в лучевой диагностике на сайте журнала.