Home » Как инструменты искусственного интеллекта могут обмануть вас

Как инструменты искусственного интеллекта могут обмануть вас

The Beatles вновь взволновали миллионы поклонников по всему миру выпуская новую песню с помощью искусственного интеллекта объединяя части старой записи и улучшая качество звука. Люди приветствовали новую песню группы, но есть и темная сторона использования искусственного интеллекта для подделки голосов и изображений.

К счастью, такие дипфейки – и инструменты, используемые для их создания – в настоящее время недостаточно развиты и широко распространены, однако потенциал их использования в схемах мошенничества чрезвычайно высок, а технология постоянно развивается.

Что они могут сделать? дипфейки голос?

Open AI недавно представил один Модель аудио API который может генерировать человеческую речь и текст с помощью голосового ввода. Пока что только это программное обеспечение Open AI наиболее близко к реальной человеческой речи.

В будущем такие модели могут стать новым инструментом в руках злоумышленников. Аудио API может воспроизводить указанный текст голосом, и пользователи могут выбирать, какой из предложенных голосовых вариантов озвучивать текст. Модель Open AI в ее нынешнем виде не может быть использована для создания дипфейковых голосов, но она свидетельствует о быстром развитии технологий генерации голоса.

Сегодня практически не существует устройств, способных воспроизводить качественный дипфейковый голос, неотличимый от реальной человеческой речи. Однако в последние месяцы было выпущено больше инструментов для генерации человеческого голоса. Раньше от пользователей требовались базовые навыки программирования, но теперь работать с такими инструментами становится проще. В ближайшем будущем мы можем ожидать появления моделей, сочетающих в себе простоту использования и качество результатов.

Мошенничество с использованием искусственного интеллекта — редкость, но примеры «успешных» случаев уже известны. В середине октября 2023 года американский венчурный инвестор Тим Дрейпер предупредил своих подписчиков в Твиттере, что мошенники могут использовать его голос в аферах. Тим поделился, что запросы денег, сделанные его голосом, являются результатом искусственного интеллекта, который, судя по всему, становится умнее.

Read more:  Мы играем в «The Last of Us 2 Remastered»: возвращение самой мрачной жемчужины PlayStation

Как вы можете защитить себя?

Пока что общество может не воспринимать голосовые дипфейки как потенциальную киберугрозу. Случаев их использования со злым умыслом очень мало, поэтому технологии защиты появляются медленно.

На данный момент лучший способ защитить себя — внимательно слушать, что говорит звонящий. Если запись плохого качества, имеет шумы и голос звучит роботизированно, этого достаточно, чтобы не доверять услышанной информации.

Еще один хороший способ проверить, является ли звонящий человеком, — задать ему вопросы личного характера. Например, если звонящий окажется голосовой моделью, вопрос о его любимом цвете останется без ответа, поскольку это не то, о чем обычно просит жертва мошенничества. Даже если на этом этапе злоумышленник позвонит и вручную воспроизведет ответ, задержка ответа даст понять, что вы жульничаете.

Еще один безопасный вариант – установка надежного и комплексного решения безопасности. Хотя они не могут на 100% обнаружить фальшивые голоса, они могут помочь пользователям избежать подозрительных веб-сайтов, платежей и загрузки вредоносного ПО, защищая браузеры и проверяя все файлы на компьютере.

«Главный совет в это время — не переусердствовать и не пытаться обнаружить дипфейки голос там, где их нет. В настоящее время доступные технологии вряд ли будут достаточно мощными, чтобы создать голос, который человек не сможет распознать как искусственный. Однако вы должны знать о потенциальных угрозах и быть готовыми к продвинутому мошенничеству. дипфейк что станет новой реальностью в ближайшем будущем», комментирует Дмитрий Аникин, старший специалист по данным «Лаборатории Касперского».

*Следуй за ним Techgear.gr в Новостях Google будет немедленно получать информацию обо всех новых статьях!

2023-11-14 10:37:00


1700021110
#Как #инструменты #искусственного #интеллекта #могут #обмануть #вас

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.