Home » ChatGPT может помочь врачам и навредить пациентам

ChatGPT может помочь врачам и навредить пациентам

«Медицинские знания и практика со временем меняются и развиваются, и невозможно сказать, где на временной шкале медицины ChatGPT берет информацию, когда предлагает типичное лечение», — говорит она. «Эта информация свежая или устарела?»

Пользователям также следует остерегаться того, как боты в стиле ChatGPT могут представлять сфабрикованная или «галлюцинированная» информация в поверхностно свободно образом, что может привести к серьезным ошибкам, если человек не проверяет ответы алгоритма. И текст, сгенерированный ИИ, может неявным образом влиять на людей. Изучение опубликованный в январе, который не прошел рецензирование, который представил этические тизеры для ChatGPT, пришел к выводу, что чат-бот является непоследовательным моральным советником, который может влиять на принятие решений человеком, даже если люди знают, что совет исходит от программного обеспечения ИИ.

Быть врачом — это гораздо больше, чем изрыгать энциклопедические медицинские знания. В то время как многие врачи с энтузиазмом относятся к использованию ChatGPT для задач с низким уровнем риска, таких как обобщение текста, некоторые специалисты по биоэтике опасаются, что врачи обратятся к боту за советом, когда им предстоит принять сложное этическое решение, например, является ли операция правильным выбором для пациента с низкой вероятностью выживания или выздоровления.

«Вы не можете отдать на аутсорсинг или автоматизировать такой процесс с помощью модели генеративного ИИ», — говорит Джейми Уэбб, специалист по биоэтике из Центра техноморального будущего Эдинбургского университета.

В прошлом году Уэбб и группа моральных психологов исследовали, что потребуется для создания «морального советника» на базе ИИ для использования в медицине. Предыдущее исследование что подсказало идею. Уэбб и его соавторы пришли к выводу, что таким системам будет сложно надежно сбалансировать различные этические принципы и что врачи и другой персонал могут пострадать от «моральной декомпетентности», если они будут слишком полагаться на бота вместо того, чтобы самостоятельно обдумывать сложные решения. .

Read more:  Ким Кардашьян рассказала о разрыве сухожилия и переломе плеча

Уэбб отмечает, что врачам раньше говорили, что ИИ, который обрабатывает язык, произведет революцию в их работе, только для того, чтобы разочароваться. После Опасность! побед в 2010 и 2011 годах, подразделение Watson в IBM обратилось к онкологии и заявило об эффективности борьбы с раком с помощью ИИ. Но это решение, первоначально названное «Мемориал Слоана Кеттеринга в коробке», оказалось не таким успешным в клинических условиях, как можно было предположить из-за шумихи. а в 2020 году IBM закрыла проект.

Когда шумиха звучит пусто, могут быть долгосрочные последствия. Во время дискуссионная панель в Гарварде о потенциале ИИ в медицине в феврале, врач общей практики Тришан Панч вспомнила, как увидела пост коллеги в Твиттере, в котором он поделился результатами запроса ChatGPT диагностировать болезнь вскоре после выпуска чат-бота.

Взволнованные клиницисты быстро ответили обещаниями использовать технологию в своей практике, вспоминает Панч, но примерно к 20-му ответу вмешался другой врач и сказал, что все ссылки, сгенерированные моделью, были фальшивыми. «Достаточно одной или двух таких вещей, чтобы подорвать доверие ко всему этому», — сказал Панч, который является соучредителем стартапа Wellframe, занимающегося разработкой программного обеспечения для здравоохранения.

Несмотря на иногда вопиющие ошибки ИИ, Роберт Перл, ранее работавший в Kaiser Permanente, по-прежнему оптимистичен в отношении таких языковых моделей, как ChatGPT. Он считает, что в ближайшие годы языковые модели в здравоохранении станут больше похожи на iPhone. упакованный с функциями и сила, которая может усилить врачей и помочь пациентам справиться с хроническими заболеваниями. Он даже подозревает, что языковые модели, такие как ChatGPT, могут помочь уменьшить более 250 000 смертей которые происходят ежегодно в США в результате врачебных ошибок.

Read more:  Даже с Final Fantasy 16 PS5 не может превзойти продажи Switch в Японии

Перл считает, что некоторые вещи запрещены для ИИ. По его словам, помощь людям в преодолении горя и потери, беседы о конце жизни с семьями и разговоры о процедурах, связанных с высоким риском осложнений, не должны включать бота, потому что потребности каждого пациента настолько изменчивы, что вы должны вести эти беседы. попасть туда.

«Это разговоры между людьми», — говорит Перл, предсказывая, что то, что доступно сегодня, — это лишь небольшой процент потенциала. «Если я ошибаюсь, то это потому, что я переоцениваю скорость совершенствования технологии. Но каждый раз, когда я смотрю, он движется быстрее, чем я даже думал».

На данный момент он сравнивает ChatGPT со студентом-медиком: он способен оказывать помощь пациентам и вмешиваться, но все, что он делает, должен проверять лечащий врач.

2023-04-24 11:00:00


1682344488
#ChatGPT #может #помочь #врачам #навредить #пациентам

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.