Home » ChatGPT для обнаружения рака молочной железы

ChatGPT для обнаружения рака молочной железы

Поскольку число потребителей, обращающихся к инструменту ChatGPT за советом по здоровью, увеличивается, исследователи стремятся проверить, является ли информация, предоставляемая чат-ботом AI, надежной и точной. Исследование, проведенное исследователями Медицинской школы Университета Мэриленда (США), показывает, что сгенерированные ответы в подавляющем большинстве случаев дают правильную информацию; но иногда, однако, информация является неточной или даже фиктивной. Результаты опубликованы в журнале «Радиология».

В феврале 2023 года исследователи разработали 25 вопросов, связанных с рекомендациями по обследованию на рак молочной железы. Они отправляли каждый вопрос ЧатGPT три раза, чтобы увидеть, какие ответы были сгенерированы. (Было известно, что чат-бот меняет свой ответ каждый раз, когда задается вопрос.)

Три рентгенолога, специализирующихся на маммографии, оценили ответы и обнаружили, что они подходят для 22 из 25 вопросов.

Однако чат-бот дал ответ, основанный на устаревшей информации. У двух других были непоследовательные ответы, которые значительно менялись каждый раз, когда задавался один и тот же вопрос.

«Мы обнаружили, что ChatGPT правильно отвечал на вопросы в 88% случаев, что довольно удивительно», — говорит автор исследования Пол Йи. «У этого также есть дополнительное преимущество, заключающееся в обобщении информации в легко усваиваемой форме, чтобы ее было легко понять потребителям».

ChatGPT правильно ответил на вопросы о симптомах рака молочной железы, о том, кто находится в группе риска, а также на вопросы о стоимости, возрасте и рекомендациях по частоте маммографии.

Недостатком является то, что он не такой исчерпывающий в своих ответах, как то, что человек обычно находит в поиске Google. «ChatGPT предлагает только набор рекомендаций по скринингу рака молочной железы, выпущенных Американским онкологическим обществом, но не упоминает различные рекомендации, выпущенные другими национальными и международными организациями», — говорит ведущий автор исследования доктор Хана. Хейвер из Мэрилендского университета.

Мы обнаружили, что ChatGPT правильно отвечал на вопросы в 88% случаев, что довольно удивительно.

Read more:  ChatGPT: Юристы говорят, что искусственный интеллект обманом заставил их сослаться на фальшивую судебную практику

Хана Хейвер

Университет Мэриленда

«По нашему опыту, ChatGPT иногда фабрикует поддельные статьи из журналов или медицинских консорциумов, чтобы поддержать свои заявления», — говорит Йи. «Пользователи должны знать, что это новые и недоказанные технологии, и должны продолжать доверять своему врачу, а не ChatGPT, за советом.».

Йи и его коллеги сейчас анализируют результаты ChatGPT для рекомендаций по скринингу рака легких и определяют способы улучшения рекомендаций ChatGPT, чтобы сделать их более точными и полными, а также понятными для тех, кто не имеет высшего образования. .

«С быстрым развитием ChatGPT и других основных языковых моделей мы, как медицинское сообщество, обязаны оценивать эти технологии и защищать наших пациентов от потенциального вреда, который может быть вызван неверными рекомендациями по скринингу или устаревшими профилактическими стратегиями здоровья», — утверждает Марк. Т. Гладвин.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.