Home » Как обнаружить дипфейки во время видеозвонков в прямом эфире? Вот что советуют делать эксперты

Как обнаружить дипфейки во время видеозвонков в прямом эфире? Вот что советуют делать эксперты

В следующий раз, когда вы разговариваете по Zoom, вы можете попросить человека, с которым вы разговариваете, приложить палец к носу. Или, может быть, поверните полный профиль на камеру на минуту.

Это лишь некоторые из методов, рекомендованных экспертами в качестве способов обеспечения уверенности в том, что вы видите реальное изображение человека, с которым разговариваете, а не олицетворение, созданное с помощью технологии дипфейка.

Звучит как странная предосторожность, но мы живем в странные времена.

В прошлом месяце топ-менеджер криптовалютной биржи Binance сказал что мошенники использовали его изощренную дипфейковую «голограмму» для мошенничества с несколькими криптовалютными проектами. Патрик Хиллманн, директор по связям с общественностью Binance, говорит, что преступники использовали дипфейк, чтобы выдавать себя за него во время звонков в Zoom. (Хиллманн не представил доказательств в поддержку своего утверждения, и некоторые эксперты скептически относятся к использованию дипфейков. Тем не менее исследователи безопасности говорят, что такие инциденты теперь вероятны). В июле ФБР предупрежден что люди могут использовать дипфейки на собеседованиях, проводимых с помощью программного обеспечения для видеоконференций. Месяцем ранее несколько европейских мэров заявили, что их сначала обманули фальшивые видеозвонки якобы с президентом Украины Владимиром Зеленским. Тем временем стартап под названием Metaphysic, разрабатывающий программное обеспечение для дипфейков, вышел в финал конкурса America’s Got Talent, создав удивительно хорошие дипфейки Саймона Коуэлла и другие судьи-знаменитости, превращающие других певцов в знаменитостей в режиме реального времени, прямо на глазах у публики.

Дипфейки — это чрезвычайно убедительные поддельные изображения и видео, созданные с помощью искусственного интеллекта. Когда-то для создания правдоподобного дипфейка требовалось много чьих-то изображений, много времени и достаточная степень навыков кодирования и ноу-хау в области спецэффектов. И даже после создания модель ИИ не могла работать достаточно быстро, чтобы создать дипфейк в реальном времени при прямой трансляции видео.

Это уже не так, как подчеркивается как в истории Binance, так и в метафизике «America’s Got Talent». На самом деле, людям становится все проще использовать программное обеспечение для дипфейков, чтобы выдавать себя за других в прямых видеотрансляциях. Программное обеспечение, позволяющее кому-то делать это, теперь легко доступно бесплатно и требует относительно небольших технических навыков для использования. И, как показывает история Binance, это открывает возможности для всех видов мошенничества и политической дезинформации.

Read more:  Подайте заявку на получение 20% компенсации или 200 долларов США в Кентукки, большинстве штатов.

«Я удивлен тем, как быстро появились живые дипфейки и насколько они хороши», — говорит Хэни Фарид, компьютерный ученый из Калифорнийского университета в Беркли, эксперт в области анализа видео и аутентификации. Он говорит, что существует как минимум три различных программы с открытым исходным кодом, которые позволяют людям создавать живые дипфейки.

Фарид — один из тех, кто опасается, что живые дипфейки могут усилить мошенничество. «Это будет похоже на фишинговую аферу на стероидах», — говорит он.

«Карандашный тест» и другие уловки, чтобы поймать самозванца ИИ

К счастью, эксперты говорят, что есть еще ряд методов, которые человек может использовать, чтобы дать себе разумную уверенность в том, что он не общается с дипфейком. Один из самых надежных — просто попросить человека повернуться так, чтобы камера снимает ее в полный профиль. Дипфейки борются с профилями по ряду причин. Для большинства людей недостаточно доступных изображений профиля, чтобы обучить модель дипфейка достоверному воспроизведению угла. И хотя есть способы использовать компьютерное программное обеспечение для оценки вида профиля по изображению спереди, использование этого программного обеспечения усложняет процесс создания дипфейка.

Программное обеспечение для дипфейков также использует «опорные точки» на лице человека, чтобы правильно расположить «маску» дипфейка поверх него. Поворот на 90 градусов устраняет половину опорных точек, что часто приводит к тому, что программное обеспечение искажает, размывает или искажает изображение профиля странным образом, что очень заметно.

Исроэль Мирски, исследователь, возглавляющий Лаборатория наступательного ИИ в израильском университете Бен-Гуриона экспериментировал с ряд других методов обнаружения живых дипфейков которую он сравнил с системой CAPTCHA, используемой многими веб-сайтами для обнаружения программных ботов (вы знаете, той, которая просит вас выбрать все изображения светофоров на фотографии, разбитой на квадраты). Его методы включают в себя просьбу людей во время видеозвонка взять случайный объект и переместить его по лицу, подбросить объект, поднять и сложить рубашку, погладить себя по волосам или замаскировать часть лица рукой. . В каждом случае либо дипфейк не сможет изобразить объект, проходящий перед лицом, либо метод вызовет серьезные искажения изображения лица. Для аудиодипфейков Мирски предлагает просить человека насвистывать, или пытаться говорить с необычным акцентом, или напевать или петь выбранную наугад мелодию.

На изображении показаны снимки экрана исследователя Исроэля Мирски, выполняющего ряд методов обнаружения дипфейков.
Здесь Исроэль Мирски, руководитель Лаборатории наступательного ИИ в Университете Бен-Гуриона в Израиле, демонстрирует ряд простых методов обнаружения живых дипфейков.
Read more:  Путешествие к месту рождения ELT, крупнейшего оптического телескопа в мире: «Это будет революция» | Наука

Изображение предоставлено Исроэлем Мирски

«Все существующие на сегодняшний день технологии дипфейков следуют очень похожему протоколу, — говорит Мирски. «Они обучаются на большом количестве данных, и эти данные должны иметь определенный шаблон, которому вы обучаете модель». Большинство программ искусственного интеллекта учат просто надежно имитировать лицо человека, если смотреть спереди, и не могут хорошо обрабатывать косые углы или объекты, которые загораживают лицо.

Тем временем Фарид показал, что другим способом обнаружения возможных дипфейков является использование простой программы, которая заставляет экран компьютера другого человека мерцать по определенной схеме или заставляет его проецироваться. легкий узор на лицо человека, использующего компьютер. Либо дипфейк не сможет передать световой эффект олицетворению, либо он будет слишком медленным для этого. По словам Фарида, подобное обнаружение можно было бы сделать, просто попросив кого-нибудь использовать другой источник света, например фонарик смартфона, чтобы осветить его лицо под другим углом.

По словам Мирски, чтобы реалистично изобразить кого-то, делающего что-то необычное, программное обеспечение ИИ должно увидеть тысячи примеров того, как люди делают это. Но собрать такой набор данных сложно. И даже если бы вы могли научить ИИ надежно изображать кого-то, выполняющего одну из этих сложных задач — например, взять карандаш и провести им перед своим лицом — дипфейк все равно, скорее всего, потерпит неудачу, если вы попросите человека использовать совсем другой способ. какой-то предмет, например кружка. Маловероятно, что злоумышленники, использующие дипфейки, смогут обучить дипфейк преодолению множества проблем, таких как карандашный тест и тест профиля. Каждая отдельная задача, по словам Мирски, увеличивает сложность обучения, которое требуется ИИ. «Вы ограничены в аспектах, которые вы хотите, чтобы программное обеспечение дипфейка было совершенным», — говорит он.

Дипфейки постоянно совершенствуются

На данный момент немногие эксперты по безопасности предполагают, что людям нужно будет использовать эти подобные CAPTCHA задачи для каждой встречи Zoom, которую они проводят. Но и Мирски, и Фарид сказали, что людям может быть разумно использовать их в ситуациях с высокими ставками, таких как телефонный разговор между политическими лидерами или встреча, результатом которой может стать крупная финансовая сделка. И Фарид, и Мирский призвали людей быть готовыми к другим возможным тревожным сигналам, таким как звуковые звонки с незнакомых номеров или люди, которые ведут себя странно или обращаются с необычными просьбами (действительно ли президент Байден хотел бы, чтобы вы купили для него кучу подарочных карт Apple?).

Read more:  Получите вечеринку Super Mario всего за 20 долларов в Prime Day 2023

Фарид говорит, что для очень важных звонков люди могут использовать какую-то простую двухфакторную аутентификацию, например, отправить текстовое сообщение на номер мобильного телефона, который, как вы знаете, является правильным для этого человека, с вопросом, находится ли он в данный момент на видеовызове. с тобой.

Исследователи также подчеркнули, что дипфейки постоянно совершенствуются и что нет никаких гарантий, что им не станет намного проще уклоняться от какой-либо конкретной задачи — или даже их комбинации — в будущем.

Именно поэтому многие исследователи пытаются решить проблему дипфейков в прямом эфире с противоположной точки зрения — создавая своего рода цифровую подпись или водяной знак, которые доказывали бы подлинность видеозвонка, а не пытались раскрыть дипфейк.

Одна группа, которая может работать над протоколом проверки видеозвонков в реальном времени, — это Коалиция за происхождение контента и аутентификацию (C2PA) — фонд, посвященный стандартам аутентификации цифровых носителей, поддерживаемый такими компаниями, как Microsoft, Adobe, Sony, Twitter. «Я думаю, что C2PA должен принять это во внимание, потому что они создали спецификацию для записанного видео, и расширение ее для живого видео — это естественно», — говорит Фарид. Но Фарид признает, что попытка аутентифицировать данные, которые передаются в режиме реального времени, — непростая технологическая задача. «Я не сразу понимаю, как это сделать, но об этом будет интересно подумать», — говорит он.

А пока напомните гостям во время вашего следующего звонка в Zoom, чтобы они принесли на встречу карандаш.

Подпишитесь на Фортуна Особенности список адресов электронной почты, чтобы вы не пропустили наши самые важные статьи, эксклюзивные интервью и расследования.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.