Home » Предупреждение об использовании в Великобритании нерегулируемых чат-ботов с искусственным интеллектом для создания планов социального обеспечения | Искусственный интеллект (ИИ)

Предупреждение об использовании в Великобритании нерегулируемых чат-ботов с искусственным интеллектом для создания планов социального обеспечения | Искусственный интеллект (ИИ)

Британские опекуны, находящиеся в затруднительном положении, нуждаются во всей возможной помощи. Но это не должно включать использование нерегулируемых ботов ИИ, по мнению исследователей, которые говорят, что революция ИИ в социальной сфере требует жесткого этического преимущества.

Пилотное исследование, проведенное учеными из Оксфордского университета, показало, что некоторые поставщики медицинских услуг используют чат-боты с генеративным искусственным интеллектом, такие как ChatGPT и Bard, для создания планов ухода за людьми, получающими помощь.

По мнению доктора Кэролайн Грин, начинающего научного сотрудника Института этики искусственного интеллекта в Оксфорде, это представляет собой потенциальный риск для конфиденциальности пациентов, которая опрашивала медицинские организации для исследования.

«Если вы поместите какие-либо персональные данные в [a generative AI chatbot]эти данные используются для обучения языковой модели», — сказал Грин. «Эти персональные данные могут быть сгенерированы и раскрыты кому-то другому».

Она сказала, что лица, осуществляющие уход, могут действовать на основе ошибочной или предвзятой информации и непреднамеренно причинить вред, а план ухода, созданный ИИ, может быть некачественным.

Но у ИИ есть и потенциальные преимущества, добавил Грин. «Это могло бы помочь с этой тяжелой административной работой и позволить людям чаще пересматривать планы ухода. На данный момент я бы никому не советовал это делать, но есть организации, работающие над созданием приложений и веб-сайтов именно для этого».

Технологии, основанные на больших языковых моделях, уже используются органами здравоохранения. ПейнЧек это телефонное приложение, которое использует распознавание лиц, обученное искусственным интеллектом, чтобы определить, испытывает ли человек, неспособный говорить, боль, путем обнаружения крошечных мышечных подергиваний. Оксевидениесистема, используемая половиной психиатрических трестов Национальной службы здравоохранения, использует инфракрасные камеры, установленные в изолированных комнатах – для потенциально агрессивных пациентов с тяжелой деменцией или острыми психиатрическими потребностями – для мониторинга того, подвержены ли они риску падения, сколько времени они спят и другие уровни активности.

Read more:  Хватка Пекина в Гонконге усиливается

Проекты на более ранней стадии включают Sentai, систему мониторинга ухода, использующую динамики Amazon Alexa для людей, у которых нет круглосуточного ухода, чтобы напоминать им о необходимости принимать лекарства и позволять родственникам в другом месте проверять их.

По словам Джорджа МакГинниса, директора по здоровому старению в Innovate UK, Бристольская лаборатория робототехники разрабатывает устройство для людей с проблемами памяти, у которых есть детекторы, отключающие подачу газа, если плита остается включенной.

«Исторически это означало бы вызов газового инженера, чтобы убедиться, что все в порядке», — сказал МакГиннис. «Бристоль разрабатывает систему благотворительных организаций для инвалидов, которая позволит людям делать это безопасно самостоятельно.

«Мы также профинансировали систему циркадного освещения, которая адаптируется к людям и помогает им восстановить циркадный ритм — одну из вещей, которая теряется при деменции».

В то время как люди, работающие в творческих индустриях, обеспокоены возможностью замены ИИ, в социальной сфере насчитывается около 1,6 миллиона работников и 152 000 вакансий, при этом 5,7 миллиона неоплачиваемых сиделок присматривают за родственниками, друзьями или соседями.

«Люди видят ИИ двоично: либо он заменяет работника, либо вы продолжаете жить так, как сейчас», — сказал Лайонел Тарасенко, профессор технических наук и президент Рубен-колледжа в Оксфорде. «Дело совсем не в этом: нужно брать людей с низким уровнем опыта и повышать их квалификацию, чтобы они достигли того же уровня, что и люди с большим опытом.

«Я занимался уходом за своим отцом, который умер в возрасте 88 лет всего четыре месяца назад. У нас была сиделка с проживанием. Когда мы приехали на выходные, мы с сестрой фактически ухаживали за человеком, которого мы глубоко любили и хорошо знали, у которого была деменция, но у нас не было такого же уровня навыков, как у лиц, осуществляющих уход с проживанием. Таким образом, эти инструменты позволили бы нам достичь того же уровня, что и обученные, опытные лица, осуществляющие уход».

Read more:  Команда глухих Америки: появление бизонов из Университета Галлодета | Студенческий футбол

Однако некоторые менеджеры по медицинскому обслуживанию опасаются, что использование технологий искусственного интеллекта создает риск того, что они непреднамеренно нарушат правила и потеряют лицензию. Марк Топпс, работающий в сфере социального обеспечения и соведущий Заботливый взгляд В подкасте говорится, что люди, работающие в сфере социального обеспечения, обеспокоены тем, что, используя технологии, они могут непреднамеренно нарушить правила Комиссии по качеству медицинского обслуживания и потерять регистрацию.

«Пока регулятор не опубликует руководство, многие организации не будут ничего предпринимать из-за негативной реакции, если они ошибутся», – сказал он.

В прошлом месяце 30 организаций социальной помощи, включая Национальную ассоциацию ухода, Skills for Care, Adass и Scottish Care, встретились в колледже Рубена, чтобы обсудить, как ответственно использовать генеративный искусственный интеллект. Грин, созывающий встречу, заявил, что они намерены создать руководство по передовой практике в течение шести месяцев и надеются работать с CQC и Департаментом по Здоровье и социальная помощь.

«Мы хотим иметь руководящие принципы, подлежащие исполнению DHSC, которые определяют, что на самом деле означает ответственное использование генеративного искусственного интеллекта и социальной помощи», — сказала она.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.