Home » Взрыв чат-бота в сфере здравоохранения не за горами?

Взрыв чат-бота в сфере здравоохранения не за горами?

В то время как поставщики медицинских услуг относительно медленно запускали чат-ботов, возможно, пришло время для взрыва чат-ботов. Поскольку ChatGPT вызывает бешеный глобальный интерес, мы можем оказаться на переломном этапе использования чат-ботов в нашей повседневной жизни, и у провайдеров будут веские причины встречаться с потребителями там, где они есть.

За последние несколько лет наблюдается медленно растущее движение к использованию чат-ботов в клинической помощи. Один из самых громких проектов включает в себя развертывание чат-бота, созданного Babylon Health, для сортировки пациентов в нескольких больницах Национальной службы здравоохранения Великобритании.

Поставщики также начали тестировать приложения для чат-ботов, чтобы улучшить общение с пациентами. Один интересный случай произошел с моим коллегой Колином Хунгом, который недавно поделился историей о том, как чат-бот помог остановить кризис в Piedmont Healthcare.

Кроме того, лидеры общественного здравоохранения начали использовать технологию чат-ботов для решения задач управления COVID-19, таких как планирование вакцинации, эпиднадзор, распространение информации и оценка рисков, особенно во время пандемии.

При этом, несмотря на то, что эти проекты дали много полезной информации, они также начали выявлять некоторые недостатки современной технологии чат-ботов в сфере здравоохранения.

Например, проект NHS был чем-то вроде финансового краха, хотя этот случай нельзя обобщать, учитывая то, как он связан с причудами модели финансирования агентства здравоохранения.

Кроме того, существуют ограничения, присущие развертыванию искусственного интеллекта в здравоохранении в целом, некоторые из которых становятся особенно опасными в условиях, связанных с уходом.

Вот некоторые недостатки, которые сам ChatGPT определяет в отношении его использования в здравоохранении:

* Он не может принимать решения или ставить диагноз, как человек-врач, а только генерирует текст на основе информации, которую вводят пациенты.

Read more:  Сотрудничество, чтобы внедрить инновации ИИ в образование

* Несмотря на то, что программа ChatGPT обучена работе с большим объемом текстовых данных, она может быть не обучена специальной медицинской терминологии или концепциям, что может привести к неточностям или недопониманию при общении с пациентами.

* Пациенты могут не решаться делиться личной или конфиденциальной информацией с программным моделированием человека, а не с реальным человеком.

* Языковые модели, такие как ChatGPT, могут с трудом понимать контекст вопроса или утверждения пациента, что может привести к путанице или неправильному толкованию.

* Будучи машиной, ChatGPT не может сопереживать пациентам и их проблемам, что важно для установления доверия и взаимопонимания.

Учитывая финансовый крах, с которым сталкиваются многие медицинские учреждения после COVID, неудивительно, что они задраили люки и мало тратили на что-либо, кроме критических вопросов. На самом деле, я не удивлюсь, увидев, что в ближайшем будущем медицинские работники откажутся от существующих исследований ИИ, если они посчитают их даже несколько экспериментальными.

Тем не менее, я думаю, что условия для массового развертывания чат-ботов в здравоохранении относительно скоро наладятся, хотя это определенно столкнется с некоторыми трудностями. Любой инструмент, облегчающий информирование и вовлечение пациентов, особенно при легком масштабировании, вероятно, найдет место в наборе инструментов для медицинских технологий.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.