Home » Исследователи онкологии поднимают этические проблемы, связанные с искусственным интеллектом, работающим с пациентами

Исследователи онкологии поднимают этические проблемы, связанные с искусственным интеллектом, работающим с пациентами

Кредит: Pixabay/CC0 Public Domain

Готовы они или нет, но пациенты с раком все чаще сталкиваются с технологиями искусственного интеллекта, чтобы записываться на прием, следить за своим здоровьем, узнавать о своем заболевании и его лечении, находить поддержку и многое другое.

В новой статье в Онкологическая практика JCOИсследователи биоэтики из Института рака Дана-Фарбер призывают медицинские общества, государственных деятелей, врачей и исследователей работать вместе, чтобы обеспечить сохранение здравоохранения с помощью ИИ. автономия пациента и уважает человеческое достоинство.

Авторы отмечают, что, хотя ИИ обладает огромным потенциалом для расширения доступа к лечение рака и улучшение способности обнаруживать, диагностировать и лечить рак, медицинские работники и разработчикам технологий необходимо действовать немедленно, чтобы не допустить обезличивания технологии. уход за пациентом и разрушение отношений между пациентами и лицами, осуществляющими уход.

В то время как предыдущие статьи об искусственном интеллекте в медицине были посвящены его последствиям для врачей-онкологов и исследователей искусственного интеллекта, новая статья является одной из первых, в которой рассматриваются опасения по поводу встроенного искусственного интеллекта в технологии, используемые пациентами с раком.

«На сегодняшний день мало кто формально рассматривает влияние взаимодействия пациентов с программами искусственного интеллекта, которые не были проверены клиницистами или регулирующими организациями», — говорит ведущий автор статьи, Амар Келкар, доктор медицинских наук, врач по трансплантации стволовых клеток в Дане. -Институт рака Фарбера. «Мы хотели изучить этические проблемы, связанные с использованием ИИ для лечения рака, уделяя особое внимание его потенциальным последствиям для человеческого достоинства».

Поскольку врачи-онкологи и исследователи начали использовать ИИ — для диагностики рака и отслеживания роста опухоли, прогнозирования результатов лечения или выявления закономерностей возникновения — прямое взаимодействие между пациентами и технологией до сих пор было относительно ограничено. Ожидается, что ситуация изменится.

Авторы сосредотачивают внимание на трех областях, в которых пациенты, скорее всего, будут использовать ИИ сейчас или в будущем. Телездравоохранение, в настоящее время являющееся платформой для общения между пациентами и врачами, может использовать ИИ для сокращения времени ожидания и сбора данных о пациентах до и после приема. Дистанционный мониторинг здоровья пациентов может быть улучшен с помощью систем искусственного интеллекта, которые анализируют информацию, сообщаемую самими пациентами или собираемую носимыми устройствами.

В коучинге по вопросам здоровья можно использовать искусственный интеллект, в том числе модели естественного языка, имитирующие человеческие взаимодействия— предоставлять персональные медицинские консультации, образование и психосоциальную поддержку.

Несмотря на весь свой потенциал в этих областях, ИИ также создает множество этических проблем, многие из которых еще не решены должным образом, пишут авторы. Например, телездравоохранение и удаленный мониторинг здоровья создают неизбежный риск для конфиденциальности, когда данные пациентов собираются с помощью ИИ. А поскольку автономные программы медицинского коучинга становятся все более похожими на человеческие, существует опасность того, что реальные люди будут меньше контролировать их, устраняя контакты между людьми, которые традиционно определяли рак лекарство.

Авторы приводят несколько принципов, которыми следует руководствоваться при разработке и внедрении ИИ в ситуациях, связанных с пациентами, включая человеческое достоинство, автономию пациентов, равенство и справедливость, нормативный надзор и сотрудничество для обеспечения того, чтобы здравоохранение, основанное на ИИ, было этически обоснованным и справедливым.

«Каким бы сложным ни был ИИ, он не может достичь того сочувствия, сострадания и культурного понимания, которые возможны у людей, осуществляющих уход», — утверждают авторы. «Чрезмерная зависимость от ИИ может привести к обезличенному уходу и уменьшению человеческого контакта, что потенциально подрывает достоинство пациентов и терапевтические отношения».

Чтобы обеспечить автономию пациента, пациенты необходимо понимать пределы рекомендаций, генерируемых ИИ, говорит Келкар. «Непрозрачность некоторых алгоритмов ИИ, работающих с пациентами, может сделать невозможным проследить «мыслительный процесс», который приводит к рекомендациям по лечению. Необходимо ясно понимать, исходила ли рекомендация от врача пациента или от алгоритмической модели, просматривающей обширный количество данных».

Справедливость и равенство требуют, чтобы модели ИИ обучались на данных, отражающих расовый, этнический и социально-экономический состав населения в целом, в отличие от многих нынешних моделей, которые обучались на исторических данных, которые чрезмерно представляют группы большинства, отмечает Келкар.

«Важно, чтобы заинтересованные стороны онкологии работали вместе, чтобы гарантировать, что технология искусственного интеллекта способствует автономии и достоинству пациентов, а не подрывает их», — говорит старший автор Грегори Абель, доктор медицинских наук, магистр здравоохранения, директор программы по гематологическим злокачественным новообразованиям у пожилых людей в Дана-Фарбер и член отдела народонаселения Дана-Фарбера.

Больше информации:
Онкологическая практика JCO (2023)

Цитирование: Исследователи-онкологи поднимают этические проблемы, связанные с искусственным интеллектом, обращенным к пациенту (2023 г., 3 ноября), получено 5 ноября 2023 г. с https://medicalxpress.com/news/2023-11-oncology-ethics-pose-patient-facing-artificial. HTML

Этот документ защищен авторским правом. За исключением любых добросовестных сделок в целях частного изучения или исследования, никакая часть не может быть воспроизведена без письменного разрешения. Содержимое предоставлено исключительно в информационных целях.

2023-11-03 20:00:01


1699198325
#Исследователи #онкологии #поднимают #этические #проблемы #связанные #искусственным #интеллектом #работающим #пациентами

Read more:  Covid-19: Medsafe предварительно одобрила бустеры Pfizer, нацеленные на варианты Omicron

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.