За последний год уровень доверия российских пациентов к медицинскому искусственному интеллекту не только не вырос, но и обрел явную тенденцию к снижению. Опасения игроков рынка вызывает то, что ИИ может ставить диагноз без явного запроса потенциального пациента, и он попадет к работодателю или в профильное медучреждение.
“Для повышения доверия потенциальных пациентов необходимо решение задач этики искусственного интеллекта (ИИ). Несмотря на то что эта задача поднята уже более 50 лет назад, до ее решения пока еще далеко”, – сообщила руководитель инфраструктурного центра “Хелснет” Мария Галлямова и назвала тему этики ИИ очень важной, поскольку, когда речь заходит о медицинских применениях, она напрямую касается жизни и здоровья пациентов. Поэтому неслучайно данная тема обсуждается на самом высоком государственном и межгосударственном уровне.
По мнению заместителя директора Центра компетенций НТИ “Технологии доверенного взаимодействия” Руслана Пермякова, важнейшей задачей медицинской этики является вопрос сохранения конфиденциальности данных. Тем более что медицинская информация, как предупреждает эксперт, может быть использована неправомерно, и уже есть прецеденты: “Примеры такого злоупотребления включают мошенничество со страховками, продажу личных данных пациентов третьим сторонам (работодателю) или использование информации для вымогательства”. Положение, как предупредил Руслан Пермяков, осложняет то, что даже обезличенные медицинские данные очень легко деанонимизировать, “обогатив” их с помощью результатов других утечек, которые очень легко найти на специализированных ресурсах.
Также, как подчеркнул Руслан Пермяков, качество работы ИИ достигло такого уровня, что постановка диагноза возможна если не по фотографии, то по анализу видео. Причем речь может для их носителей идти о серьезных ограничениях, например на выполнение служебных обязанностей, или о стигматизированных недугах, например нервных, психических, дегенеративных заболеваниях или разного рода зависимостях (алкогольной, наркотической). И тут возникает дилемма, нужно ли уведомлять о наличии таких медицинских проблем третью сторону, например профильное лечебное учреждение или работодателя, в том случае если потенциальный пациент не обращался в медицинское учреждение. А призывы передавать такие диагнозы, как отметил Руслан Пермяков, раздаются весьма часто на разного рода мероприятиях и в прессе.
Доцент, руководитель Школы философии и культурологии НИУ ВШЭ Анастасия Углева ознакомила участников дискуссии с результатами исследований в области этики ИИ применительно к медицине. Вопрос об этике в медицинском ИИ давно назрел, но до сих пор не решена задача формализации соответствующих требований.
Ключевые риски, связанные с использованием ИИ в медицине, как напомнила Анастасия Углева, сформулировал шведско-британский исследователь, основатель и директор Института будущего человечества Ник Бустрем еще в 2006 г. Это алгоритмическая предвзятость (AI bias), создаваемый алгоритмами ИИ риск для уязвимых групп населения (дискриминация), отсутствие подотчетности и прозрачности, технологическая безработица и наконец возможность экзистенциальных угроз со стороны “суперинтеллекта”.
Эти риски, в свою очередь, порождают проблемы доверия к ИИ, а также вопросы разделения ответственности между врачом и ИИ в случае врачебных ошибок. По мнению Анастасии Углевой, для построения этичного ИИ нужно решить проблему объяснимости и прозрачности работы алгоритмов и достичь “договорного доверия” между пользователями ИИ.
Представитель по разработке и внедрению приборов для клинической лабораторной диагностики Ассоциации российских производителей средств клинической лабораторной диагностики Александр Шибанов назвал принцип черного ящика в ИИ медицинского назначения абсолютно неприемлемым. Принятие решений должно оставаться за врачом и пациентом. При этом и врач, и пациент должны получить развернутые объяснения предлагаемых ИИ рекомендаций. Важнейшей проблемой, на которую обратил внимание Александр Шибанов, является корректность данных и моделей.
“Мы зафиксировали, что 40% рассмотренных программных продуктов достигли зрелости. При этом оценка динамики развития алгоритмов показала, что 33% из них находятся в зоне высокого диагностического и технического потенциала, а 62% – в зоне диагностической стагнации. Это говорит о том, что искусственный интеллект сегодня – хороший помощник врача, но не его замена”, – такой вывод сделал главный внештатный специалист по лучевой и инструментальной диагностике Департамента здравоохранения города Москвы, директор Центра диагностики и телемедицины Юрий Васильев в интервью для ComNews.
Академический директор акселерационной программы SechenovTech и руководитель партнерских программ ПМГМУ им. И.М. Сеченова Алла Панченко обратила внимание, что при разрешении вопроса об ответственности при использовании ИИ участвуют не только врач и пациент, но еще и разработчики, владельцы мощностей и платформ, на которых работает ИИ, а также владельцы датасетов, на которых проходило обучение. При этом вопрос корректности и полноты данных остается открытым. В итоге медицинское и экспертное сообщества испытывают серьезные опасения, что массовое внедрение ИИ может привести к увеличению количества врачебных ошибок. Также, по ее мнению, не стоит забывать и о том, что пациент информирован хуже всех участников цепочки принятия врачебных решений. И сообщество судмедэкспертов, по словам Аллы Панченко, уже готовится к валу обращений со стороны пациентов, связанных с ростом количества врачебных ошибок из-за некорректной работы медицинского ИИ.
Президент Ассоциации развития медицинских информационных технологий (АРМИТ), к.т.н., директор Центра медицинских информационных технологий “МЕДИАЛ-МТ” Михаил Эльянов согласился, что проблема этики ИИ в медицине поднимается очень давно. Однако ввиду того, что долгое время информатизация отрасли сводилась лишь к автоматизации учета, эти проблемы были оторваны от реальной практики. Да и в настоящее время уровень проникновения ИТ в медицине остается низким.
Источник: Comnews
Свежие комментарии