Articulate Medical Intelligence Explorer (AMIE), алгоритм искусственного интеллекта, обучен проводить и оценивать медицинские беседы. В диалогах с «пациентами», которые были обученными актерами, это соответствовало или даже превосходило игру врачей-людей.
Основываясь на большой языковой модели (LLM), разработанной Google, чат-бот продемонстрировал более высокую точность диагностики респираторных, сердечно-сосудистых заболеваний и различных заболеваний, чем врач общей практики. Кроме того, по сравнению с врачами-людьми, алгоритм извлекал аналогичный объем информации из диалогов, демонстрируя более высокий уровень эмпатии, как сообщается в препринтном исследовании Тао Ту и его коллег из Google Research и Google DeepMind.
Разработка алгоритма
Беседа врача с пациентом (сбор анамнеза) — один из важнейших подходов к диагностике и лечению заболеваний. Системы искусственного интеллекта (ИИ), способные вести и интерпретировать такие диалоги, могут повысить доступность медицины и улучшить качество.
Разработчики столкнулись с проблемой из-за нехватки данных медицинских разговоров. Следовательно, ученые приняли стратегию, согласно которой на начальном этапе они точно настроили базовую модель LLM, используя реальные наборы данных, такие как электронные медицинские записи и расшифровки медицинских разговоров.
Для дальнейшего обучения модели исследователи поручили LLM сыграть роль человека с определенным недугом или чуткого врача. Кроме того, их алгоритм взял на себя роль критического коллеги, оценивающего взаимодействие врача с пациентом и предоставляющего обратную связь для улучшения.
Успешное пилотное исследование
Переходя к этапу тестирования, исследователи включили в исследование 20 участников — не реальных пациентов, а актеров, обученных имитировать определенные симптомы. Эти люди участвовали в текстовых онлайн-консультациях с AMIE и 20 врачами общей практики. Участники не знали, общаются ли они с человеком или ботом, и смоделировали 149 клинических сценариев в соответствии с инструкциями ученых. Впоследствии они зафиксировали свои впечатления, а эксперты оценили работу AMIE и врачей.
Система искусственного интеллекта соответствовала или превосходила точность диагнозов врачей по всем шести исследованным медицинским специальностям. По 24 из 26 критериев качества разговора, включая вежливость, объяснение симптомов, лечение, честность, тщательность и вовлеченность, AMIE превзошла врачей-людей.
Алан Картикесалингам, клинический исследователь Google Health в Лондоне и соавтор исследования, признал, что участвующие врачи общей практики, возможно, не привыкли общаться с пациентами через текстовый чат, что потенциально влияет на их производительность. Он также отметил, что врачи могут устать быстрее, чем бот, если дают длинные и структурированные ответы.
Проблемы реализации
После успешного пилотного исследования исследователи планируют более детальные исследования, чтобы выявить потенциальные систематические ошибки и обеспечить согласованность результатов в различных подгруппах пациентов. Команда Google также начинает учитывать этические требования к тестам с участием реальных пациентов.
Конфиденциальность пользователей чат-ботов — важнейший вопрос, требующий рассмотрения. Дэниел Тинг из Медицинской школы Duke-NUS в Сингапуре подчеркнул необходимость прозрачности хранения и анализа данных на коммерческих платформах языковых моделей.
Обеспечение качественного ухода
Признавая, что чат-бот еще далек от применения в клинической практике, авторы утверждают, что в конечном итоге он может сыграть роль в демократизации здравоохранения. Адам Родман, доктор медицинских наук, преподаватель медицины Гарвардской медицинской школы в Бостоне, штат Массачусетс, подчеркнул, что, несмотря на свою полезность, этот инструмент не должен заменять взаимодействие с врачами, поскольку медицина включает в себя больше, чем просто сбор информации — она вращается вокруг человеческих отношений.
Эта статья была переведена с Medscape, немецкое издание.
2024-01-30 13:15:50
1706621081
#ИИ #превосходен #во #взаимодействии #пациентами #диагностике #пилотном #исследовании