Home » Некоторые люди действительно любят дипфейки

Некоторые люди действительно любят дипфейки

Месяц назад консалтинговая компания Accenture представила потенциальному клиенту необычный и интересный питч нового проекта. Вместо привычной слайд-колоды клиент увидел дипфейки нескольких реальных сотрудников, стоящих на виртуальной сцене и предлагающих прекрасно описанный проект, над которым они надеялись работать.

«Я хотел, чтобы они познакомились с нашей командой», — говорит Ренато Скафф, старший управляющий директор Accenture, которому пришла в голову эта идея. «Для нас это также способ выделиться среди конкурентов».

Дипфейки были созданы — с согласия сотрудников — компанией Touchcast, в которую инвестировала компания Accenture, которая предлагает платформу для интерактивных презентаций с аватарами реальных или искусственных людей. Аватары Touchcast могут отвечать на напечатанные или устные вопросы, используя модели искусственного интеллекта, которые анализируют соответствующую информацию и генерируют ответы на лету.

«Есть элемент жуткости», — говорит Скафф о своих дипфейковых сотрудниках. «Но есть еще больший элемент крутости».

Дипфейки — мощное и опасное оружие дезинформации и нанесения ущерба репутации. Но ту же самую технологию внедряют компании, которые рассматривают ее как новый умный и запоминающийся способ взаимодействия с клиентами.

Эти эксперименты не ограничиваются корпоративным сектором. Моника Арес, исполнительный директор лаборатории инноваций, цифрового образования и аналитики Бизнес-школы Имперского колледжа в Лондоне, создала дипфейки реальных профессоров, которые, как она надеется, могут стать более привлекательным и эффективным способом отвечать на вопросы студентов за пределами аудитории. класс. Арес говорит, что эта технология может повысить персонализацию, предоставить новые способы управления и оценки учащихся, а также повысить их вовлеченность. «Вы по-прежнему похожи на говорящего с вами человека, поэтому это кажется очень естественным», — говорит она.

Как это часто бывает в наши дни, за это раскрытие реальности мы должны поблагодарить ИИ. Голливудские студии уже давно могут копировать голоса, лица и манеры актеров с помощью программного обеспечения, но в последние годы искусственный интеллект сделал подобную технологию широко доступной и практически бесплатной. Помимо Touchcast, компании, в том числе Синтезия и Привет, Джен предложить компаниям возможность создавать аватары реальных или фальшивых людей для презентаций, маркетинга и обслуживания клиентов.

Read more:  Ваше мыло может сделать вас более привлекательным для комаров

Эдо Сигал, основатель и генеральный директор Touchcast, считает, что цифровые аватары могут стать новым способом представления контента и взаимодействия с ним. Его компания разработала программную платформу под названием Genything, которая позволит каждому создать своего собственного цифрового двойника.

В то же время дипфейки становятся серьезной проблемой, поскольку во многих странах, включая США, приближаются выборы. Прошлый месяц, Роботизированные звонки, генерируемые искусственным интеллектом с изображением фальшивого Джо Байдена использовались для распространения предвыборной дезинформации. Тейлор Свифт также недавно стала цель дипфейкового порно создано с использованием широко доступных инструментов искусственного интеллекта.

«Глубокие фейковые изображения, безусловно, вызывают у нас беспокойство и тревогу», Бен БьюкененОб этом в недавнем интервью WIRED рассказал специальный советник Белого дома по вопросам искусственного интеллекта. Дипфейк Swift «является ключевым моментом в более широкой тенденции, которая непропорционально затрагивает женщин и девочек, которые в подавляющем большинстве случаев становятся объектами онлайн-преследований и злоупотреблений», — сказал он.

новый Институт безопасности искусственного интеллекта США, созданная в соответствии с указом Белого дома, изданным в октябре прошлого года, в настоящее время разрабатывает стандарты для нанесения водяных знаков на медиафайлы, созданные с помощью искусственного интеллекта. Meta, Google, Microsoft и другие технологические компании также разрабатывают технология, предназначенная для обнаружения подделок с помощью искусственного интеллекта в гонке вооружений в области искусственного интеллекта с высокими ставками.

Однако некоторые политические варианты использования дипфейков подчеркивают двойной потенциал этой технологии.

Имран Хан, бывший премьер-министр Пакистана, выступил с призывом последователям своей партии в прошлую субботу, несмотря на то, что он застрял за решеткой. Бывшая звезда крикета, заключенная в тюрьму в результате того, что его партия охарактеризовала как военный переворот, произнес свою речь с помощью программного обеспечения для дипфейков, которое создало в воображении убедительную копию того, как он сидит за столом и произносит слова, которые он на самом деле никогда не произносил.

Read more:  Законодатель требует от Маска предоставить «Звездный щит» для обороны США на Тайване

Поскольку манипулирование видео с помощью искусственного интеллекта совершенствуется и становится проще в использовании, интерес бизнеса и потребителей к законному использованию этой технологии, вероятно, будет расти. Китайский технологический гигант Baidu недавно разработал способ для пользователей своего приложения-чат-бота создавать дипфейки для отправки поздравлений с Лунным Новым годом.

Даже ранние пользователи не исключают возможность неправильного использования. «Нет сомнений в том, что безопасность должна иметь первостепенное значение», — говорит Скафф из Accenture. «Как только у вас появится синтетический близнец, вы сможете заставить его делать и говорить что угодно».


2024-02-15 17:00:00


1708182510
#Некоторые #люди #действительно #любят #дипфейки

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.