Home » HereAfter AI: Разговор с теми, кого уже нет: риск воскрешения мертвых с помощью искусственного интеллекта | Технологии

HereAfter AI: Разговор с теми, кого уже нет: риск воскрешения мертвых с помощью искусственного интеллекта | Технологии

Сквозь слезы, выслушав своих умерших родственников, несколько женщин признались в своем удивлении показывать телевидение Муравейник (Антенна 3). «Это было суперреально, и мне это было нужно, мне это действительно было нужно», — рыдала молодая женщина перед камерами. «Голос потрясающий, очень довольна этим опытом», — добавила другая женщина, вытирая слезы с лица. Программа Пабло Мотоса использовала искусственный интеллект для воссоздания на основе реального звука голосов мертвых людей. Они не только воспроизвели это, что было очень просто сделать и что вызвало проблемы с дезинформацией из-за использования эти дипфейки с голосом Джо Байдена или лидер Британской Лейбористской партии Кейр Стармер. Аудиозапись задавала участникам вопросы: «Остались ли у нас какие-нибудь разговоры?» — в этом «реальном опыте», как его называет программа, погрузившемся в ПРАЙМ-тайм на развивающемся рынке – воссоздание умершего с помощью искусственного интеллекта (ИИ). Психологи предупреждают, что это может помешать естественной адаптации к горю и сделать самые болезненные фазы хроническими.

Смерть близкого человека – это как потерять часть себя. Это является источником ряда проблем с эмоциональным благополучием. и многие были бы готовы сделать все, чтобы облегчить это чувство огромной утраты. Даже поговорите с этим любимым человеком с глазу на глаз, если это возможно. Это звучит как научная фантастика, но компаниям нравится ЗдесьПослеStoryFile y Реплика Они это делают и в этом нет ничего сверхъестественного. Используя интервью и другой контент, они создают цифровые версии умерших людей для взаимодействия с живыми посредством чата, голоса или видео. В Китае этот бизнес уже растет: несколько компаний утверждают, что создали тысячи таких цифровых персонажей или ботов-призраков. Некоторые даже утверждают, что могут это сделать. всего за 30 секунд аудиовизуальной записи умершего.

Американец ИсторияФайл берет интервью у людей на протяжении всей их жизни с помощью видео, задавая ряд вопросов о ключевых событиях, таких как их детство, свадьба или самая большая проблема, а также о других, которые интервьюируемый решает добавить. На основе ответов и с использованием искусственного интеллекта генерируется разговорное видео, с которым в дальнейшем могут взаимодействовать дети, родители, друзья и родственники. По их словам, около 5000 человек уже создали профили на платформе. Стоимость услуги варьируется от 40 до 450 евро, в зависимости от количества вопросов, которые вы хотите включить. Они также предлагают бесплатную пробную версию.

Стивен Смит, соучредитель StoryFile, объясняет, что компания была создана десять лет назад с целью сохранить память о переживших Холокост. Но именно в конце 2021 года платформа стала такой, какая она есть сегодня, где каждый желающий может записывать видео веб-камерой из дома или в студии.

Read more:  СМОТРЕТЬ. Бляп во дворце во время речи Виллема-Александра: у короля нет выпивки, чтобы звучать

Сооснователь подчеркивает, что платформа не изобретает контент, а «восстанавливает то, что было заранее записано», уже существующее. Но можно пойти дальше и добавить информацию из других форматов. «Мы сделали это, используя методологию диалогового архива. Это означает использование контента из жизни человека, например видео, в котором мы можем клонировать голос, а затем заставить его говорить то, что он говорил в своей жизни. Например, вы можете использовать электронное письмо, а затем прочитать его вам. Если кто-то хочет, чтобы это произошло, это возможно», — сказал он EL PAÍS по видеоконференции.

Опасность попасться на крючок

Возможно, самым тревожным элементом является то, что некоторые люди могут стать зависимыми или даже пристраститься к общению с виртуальными аватарами, поскольку они создают ложное ощущение близости с мертвыми, как показала программа Antena 3. Женщины, вызвавшиеся добровольцами, говорили прямо в голос: «Я бы сказала тебе…», «Я скучаю по тебе», как если бы это синтетическое воссоздание было его бабушкой, умершей годом ранее.

«Поначалу наступает облегчение. Но затем возникает зависимость, зависимость», — предупреждает Хосе Гонсалес, психолог, специализирующийся на процессах скорби. «Если ИИ буквально воспроизводит то, каким человек был, существует большая опасность хронификации, особенно в очень напряженных отношениях. Легко впасть в фантазию, что он не умер. Это может вызвать зависание на этапе отрицания», — продолжает он.

Эксперт, который работал с более чем 20 000 скорбящими людьми в течение 25 лет, согласен, что разговорные видео могут быть полезны для сохранения воспоминаний, рассказывания анекдотов или эмоциональной передачи информации между поколениями. Также, когда дело доходит до воспроизведения некоторых техник, которые применяются на консультациях, чтобы закрыть нерешенные проблемы, которые невозможно решить путем переговоров. «Я задаю несколько вопросов о связи с умершим человеком, например: «Что мне в тебе больше всего нравилось» или «Когда ты меня больше всего разочаровал». Получив эти ответы, скорбящий пишет письмо и читает его пустому стулу», — описывает он. По его словам, ИИ может быть своевременно применен к такой динамике, если он находится под пристальным контролем профессионала.

Гонсалес отмечает, что существует также риск, связанный с тем, что выражено в этих записях. Прощальные послания могут быть очень мощными и помочь облегчить страдания, потому что это момент, когда вы говорите своей семье, как сильно вы их любите, это освобождает их от чувства вины и делает горе намного более терпимым. Однако без экспертного контроля даже самые благие намерения могут привести к негативным последствиям. «Представьте, что я отец единственной дочери и говорю ей: «Я оставляю тебе жизненно важную цель — хорошо заботиться о твоей матери». Это может быть очень красиво, но это также может быть приговором, если человек, который будет матерью, очень болен”, – приводит он пример. Именно в этот момент профессионал рекомендует отцу говорить по-другому, чтобы предотвратить творение. эмоциональной нагрузки, а при отсутствии контроля возрастает вероятность недопонимания.

Read more:  ChatGPT теперь доступен в службе Azure OpenAI | Блог Azure и обновления

Этическая проблема

Насколько аватар может быть верным? Кому он принадлежит? Какой тип данных можно использовать для его создания? Это лишь некоторые вопросы, которые возникают по этой теме. Для Гри Хассельбальхспециалист по этике Европейского исследовательского совета, последствия распространяются на экзистенциальную сферу: «Каждая технология, основанная на факте или идее, что она может конкурировать с людьми, поднимает вопрос о том, что значит быть человеком, каковы наши пределы и если можно использовать его для преодоления предела».

Хассельбальх, который также является соучредителем аналитический центр датский DataEthics.eu, считает, что распространение аватаров умерших представляет собой дилемму, выходящую за рамки данных, согласия или того, кто имеет права. «Это может изменить идентичность человечества и человека, поскольку ставит под сомнение саму идею смертности», — говорит она.

Среди нескольких потенциальных проблем эксперт по этике ИИ выделяет возможность создания инструмента, который не только собирает контент социальных сетей, электронных писем и мобильных сообщений умершего человека, но и его шаблоны поиска в Интернете. Это может раскрыть неизвестные хобби или интересы человека: от страсти к животным или спорту до, в худшем случае, темной тайны.

Если искусственный интеллект объединит эту информацию с другими элементами, составляющими вашу личность, но придаст большую значимость определенным аспектам, это может привести к созданию аватара или робота, который мало или совсем не похож на то, каким был этот человек в реальной жизни. Это сценарий, при котором «контроль будет потерян», предупреждает он. И это не единственный. «Насколько легко вами можно манипулировать, если любимый человек, по которому вы скучаете, говорит вам голосовать определенным образом или покупать определенные вещи? Мы не знаем, какие компании за этим стоят», — размышляет она.

«Дипфейки» и «авторское право»

Одним из клиентов StoryFile был покойный Сэм Уолтон, основатель гигантского бизнеса Walmart. «Мы работали с досье его компании. «Мы просмотрели многочасовой материал, расшифровали его речи, его видео и создали 2500 ответов на вопросы, на которые он отвечал в течение своей жизни, используя те же слова, что и сам», — описывает он. Результатом стала цифровая реконструкция с лицом, голосом и голограммой Уолтона в натуральную величину. Может ли это быть очень реалистично? «У людей, знавших Сэма, глаза запутываются из-за того, насколько он реалистичен», — говорит Алан Драноу, руководитель этой компании. Семья бизнесмена дала согласие на эту постановку, но другие известные их лица и слова были воссозданы ИИ без общего согласия.

Read more:  Интенсификация животноводства: панацеи от выбросов нет | Наука

Так обстоит дело с американским комиком Джорджем Карлином, который умер в 2008 году, чей голос и стиль были клонированы для создания подкаст Джордж Карлин: Я рад, что умер, размещено на YouTube в начале января. На прошлой неделе в федеральный суд Лос-Анджелеса был подан иск с требованием к компании Dudesy, стоящей за этим, немедленно удалить специальный аудиозапись. Его дочь Келли Карлин уже раскритиковала постановку, в которой синтез голоса артиста комментирует текущие эпизоды. «Мой отец всю жизнь совершенствовал свое ремесло, используя человечность, ум и воображение. Ни одна машина никогда не заменит его гения. Эти продукты, созданные искусственным интеллектом, представляют собой гениальную попытку воссоздать разум, который никогда больше не будет существовать. «Пусть работы художника говорят сами за себя», — сказал он на платформа Х.

По данным StoryFile, сервис, объединяющий все самое передовое в этой технологии, ориентирован только на избранную группу. «В настоящее время мы предлагаем его не как продукт на нашем сайте, а скорее для частных клиентов. Мы не хотим, чтобы наша технология использовалась для создания дипфейк от кого-то другого», — уточняет Смит.

Однако есть альтернативы, которые это делают. Компания Привет, Джен, например, позволяет создавать видеоролики с клонированием голоса, синхронизацией губ и стилями речи. Если не присматриваться очень внимательно, заметить, что это искусственное творение, практически невозможно. Хотя платформа представлена ​​как решение для персонализации и перевода контента в корпоративном мире, на практике ее можно использовать для любых целей такого типа: попрощаться с любимым человеком или использовать ее для заработка.

Вы можете следить Технология Эль-Паис в Фейсбук й Икс или зарегистрируйтесь здесь, чтобы получать наши Семанал информационного бюллетеня.


2024-02-01 10:23:29


1706990362
#Разговор #теми #кого #уже #нет #риск #воскрешения #мертвых #помощью #искусственного #интеллекта #Технологии

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.