Home » Модели искусственного интеллекта улучшают прогнозирование риска суицида среди детей

Модели искусственного интеллекта улучшают прогнозирование риска суицида среди детей

Существует повышенная потребность в специалистах по охране психического здоровья в улучшении прогнозирования риска членовредительства и самоубийства.
Рози – Мир стоит тысячи картинок/Pixabay

Модели искусственного интеллекта (ИИ) используются для улучшения прогнозирования риска самоубийства у детей и подростков с помощью трех комплексных моделей машинного обучения, включающих 84 точки данных из электронных записей.

Эти машины могут перекрестно анализировать несколько диагностических кодов и индикаторов психического здоровья, что позволяет им превзойти традиционные системы здравоохранения, которые часто пропускают значительную часть детей, имеющих самоповреждающие мысли или поведение.

По данным Королевского колледжа педиатрии и детского здоровья, уровень самоубийств среди молодежи в Великобритании постепенно снижался в период с 1992 по 2017 год, но снова вырос в 2018 году. В 2018 году было зарегистрировано в общей сложности 714 смертей, причем уровень самоубийств был самым высоким в Северная Ирландия.

В Англии четверть 11-16-летних и почти половина 17-19-летних (46,8%) с диагностированным психическим расстройством сообщили, что они совершили акт членовредительства или имели попытка самоубийства в какой-то момент их жизни. Для 11-16-летних это представляет более чем восьмикратный риск по сравнению с теми, у кого нет проблем с психическим здоровьем.

В условиях общенационального кризиса психического здоровья молодежи у поставщиков услуг в области психического здоровья возрастает потребность в улучшении прогнозирования членовредительства и риска самоубийства, чтобы иметь возможность облегчить вмешательство, пока не стало слишком поздно.

Наиболее важной причиной выявления суицидального риска является предотвращение гибели людей. Выявление лиц, подверженных риску, позволяет своевременно вмешаться и оказать поддержку, такую ​​как стратегии выживания и варианты лечения, чтобы помочь справиться с их эмоциональной борьбой.

Существующие системы здравоохранения часто не имеют полного представления о том, как точно оценить, есть ли у пациента, входящего в их двери, самоповреждающие мысли или поведение. может быть подвержен человеческой ошибке.

Read more:  DeepMind приближается к золотому стандарту в сложной математике благодаря последнему прорыву в области искусственного интеллекта

Эксперты, изучившие медицинские записи тысяч врачей, обнаружили, что диагностические коды, известные как Международная классификация болезней (МКБ), не учитывали 29% детей, которые обращались в отделение неотложной помощи из-за самоповреждающих мыслей или поведения.

Более чем у половины (54%) этих пациентов также не было пропущено их основной жалобы. Основные жалобы — это краткие заявления, которые пациенты дают в начале своего визита к врачу и описывают, почему они обращаются за медицинской помощью. Даже после совместного использования кода МКБ и основной жалобы специалисты в области психического здоровья все равно упустили около 22% этих пациентов.

Джульет Эджкомб, доктор медицинских наук, ведущий автор исследования и заместитель директора Центра информатики и науки о данных (MINDS) Калифорнийского университета в Лос-Анджелесе, сказала: «Наша способность предвидеть, у каких детей могут возникнуть суицидальные мысли или поведение в будущем, невелика — Ключевая причина заключается в том, что наша область перешла к прогнозированию, а не к тому, чтобы выяснить, систематически ли мы выявляем всех, кто обращается за медицинской помощью в связи с самоубийством. Мы стремились понять, можем ли мы сначала улучшить обнаружение».

Модели искусственного интеллекта, разрабатываемые для прогнозирования риска самоубийства, не предназначены для замены человеческого вмешательства, а скорее для расширения возможностей специалистов в области психического здоровья и лиц, осуществляющих уход. Эти инструменты могут стать дополнительным источником информации, помогающей принимать решения о соответствующих вмешательствах и поддержке.

Несколько технологических компаний и исследовательских институтов находятся в авангарде разработки и усовершенствования этих моделей ИИ. Сотрудничество между учеными данных, специалистами в области психического здоровья и экспертами в области технологий имеет решающее значение для обеспечения точности, надежности и этической обоснованности этих инструментов.

Read more:  Роджерс использует технологии искусственного интеллекта и SpaceX для борьбы с лесными пожарами в Британской Колумбии

Поскольку модели искусственного интеллекта продолжают развиваться и набирать обороты в сфере охраны психического здоровья, коллективное внимание по-прежнему сосредоточено на поиске баланса между инновациями и этикой для эффективного предотвращения риска самоубийства.

Используя возможности технологий для более раннего выявления и вмешательства в отношении детей и подростков, подверженных риску самоубийства, общество делает значительный шаг к решению сложной и насущной проблемы психического здоровья молодежи с помощью многогранного подхода.

2023-08-11 11:34:09


1691936619
#Модели #искусственного #интеллекта #улучшают #прогнозирование #риска #суицида #среди #детей

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.