Home » Как не дать искусственному интеллекту больше подводить женщин при постановке медицинских диагнозов | Технологии

Как не дать искусственному интеллекту больше подводить женщин при постановке медицинских диагнозов | Технологии

Скучая в больнице Нью-Джерси, Дайан Камачо рассказала ChatGPT о симптомах, от которых она страдает, и попросила его составить список возможных медицинских диагнозов. У нее были затруднения с дыханием, боль в груди и ощущение, что ее сердце «останавливается и начинает биться». Он чат-бот OpenAI сказал ему, что наиболее вероятным диагнозом является тревога. Камачо снова спросил прогноз для мужчины с теми же симптомами, удивившись тому, что искусственный интеллект предупредил его о возможности легочной эмболии, острого коронарного синдрома или кардиомиопатии, но без каких-либо следов беспокойства. Вот как Камачо опубликовал это несколько недель назад в сети Х (ранее Твиттер).

Генеративный ИИ, такой как ChatGPT, объединяет большие объемы данных с алгоритмами и принимает решения посредством машинного обучения. Если данные неполны или нерепрезентативны, алгоритмы могут быть предвзятыми. При выборке алгоритмы могут допускать систематические ошибки и выбирать одни ответы среди других. Столкнувшись с этими проблемами, Европейский закон об искусственном интеллекте, принятый в декабре прошлого года отдает приоритет тому, чтобы инструмент разрабатывался с учетом этических, прозрачных и непредвзятых критериев.

Медицинские изделия, согласно стандарту, считаются повышенным риском и должны отвечать строгим требованиям: иметь данные высокого качества, фиксировать свою активность, иметь подробную документацию системы, предоставлять пользователю понятную информацию, иметь меры человеческого надзора и с высоким уровнем надежность, безопасность и точность, как пояснила Еврокомиссия.

запускать Пол Сола де лос Сантос, президент Винсер.Ай, отвечает за аудит компаний на предмет соответствия европейским условиям. «Мы делаем это посредством системы управления качеством алгоритмов, моделей и систем искусственного интеллекта. Делается диагностика языковой модели, и в первую очередь нужно посмотреть, есть ли повреждения и как их исправить». Кроме того, если компания придерживается предвзятой модели, она рекомендует предупредить их об отказе от ответственности. «Если бы мы хотели распространять препарат, не подходящий для 7-летних детей, было бы немыслимо не предупредить», — объясняет Сола де лос Сантос.

Read more:  Исследователи OpenAI предупредили совет директоров о прорыве в области искусственного интеллекта перед увольнением генерального директора Сэма Альтмана: источники

В сфере здравоохранения инструменты искусственного интеллекта (ИИ) начинают становиться обычным явлением в диагностических визуализационных тестах и ​​программировании. Они помогают медицинским работникам ускорить работу и быть более точными. В радиологии это «системы помощи», указывает Хосеп Мунуэра, директор отделения радиодиагностики больницы Сант-Пау в Барселоне и эксперт в области цифровых технологий, применяемых в здравоохранении. «Алгоритмы находятся внутри устройств магнитного резонанса и сокращают время, необходимое для получения изображения», — объясняет Мунуэра. Таким образом, благодаря внедрению алгоритмов МРТ, которая длилась бы 20 минут, может быть сокращена до семи минут.

Предвзятости могут привести к различиям в здравоохранении в зависимости от пола, этнической принадлежности или демографических показателей. Примером может служить рентгенография грудной клетки, как объяснил Луис Эррера, архитектор решений Databricks Spain: «Использованные алгоритмы показали различия в точности в зависимости от пола, что привело к различиям в уходе. В частности, точность диагностики у женщин была намного ниже». Гендерная предвзятость, отмечает Мунуэра, является классической: «Это связано с предвзятостью населения и базами данных. Алгоритмы задаются или запрашиваются в базах данных, и если исторические базы данных содержат гендерную предвзятость, ответ будет предвзятым». Однако он добавляет: «Гендерная предвзятость в сфере здравоохранения существует независимо от искусственного интеллекта».

Как избежать предвзятости

Как переобучается база данных, чтобы избежать предвзятости? Арнау Вальс, инженер-координатор отдела инноваций больницы Сан-Жоан-де-Деу в Барселоне, объясняет, как это было сделано в случае выявления коронавируса в Европе, с использованием алгоритма, разработанного с участием китайского населения: «Точность алгоритма упал на 20% и появились ложные срабатывания. Пришлось создать новую базу данных и добавить в алгоритм изображения населения Европы».

Чтобы противостоять предвзятой модели как пользователи, мы должны иметь возможность сопоставлять ответы, которые дает нам инструмент, указывает Эррера: «Мы должны повышать осведомленность о предвзятости в ИИ и поощрять использование критического мышления, а также требовать прозрачности от компаний. и проверить источники».

Read more:  Стартап по осознанным сновидениям утверждает, что можно работать во сне

Эксперты соглашаются не использовать ChatGPT в медицинских целях. Но Хосе Ибеас, директор группы нефрологии в Институте исследований и инноваций Университетской больницы Парка Таули в Сабаделе (Барселона), предполагает, что инструмент будет развиваться позитивно, если чат-бот спросите медицинские базы данных. «Мы начинаем над этим работать. Способ сделать это — обучить базу данных пациентов с помощью системы OpenAI, используя ее собственные алгоритмы и инженеров. Таким образом, конфиденциальность данных защищена», — объясняет Ибеас.

Технология ChatGPT полезна в медицинской среде в определенных случаях, признает Ибеас: «Ее способность генерировать структуры, анатомические или математические, абсолютна. Его подготовка в области молекулярных структур очень хорошая. Там мало что изобретают». Соглашаясь с остальными экспертами, Ибеас предупреждает, что искусственный интеллект никогда не заменит врача, но отмечает: «Врача, который не знает об искусственном интеллекте, заменит тот, кто знает».

Вы можете следить Технология Эль-Паис в Фейсбук й Икс или зарегистрируйтесь здесь, чтобы получать наши Семанал информационного бюллетеня.

Подпишитесь, чтобы продолжить чтение

Читайте без ограничений

_


2024-02-01 04:20:00


1707053063
#Как #не #дать #искусственному #интеллекту #больше #подводить #женщин #при #постановке #медицинских #диагнозов #Технологии

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.