«Voice Engine»: так называется новое программное обеспечение, представленное в пятницу 29 марта компанией ОпенАИгигант из искусственный интеллект (генеративный искусственный интеллект) и издатель ЧатGPT. Этот инструмент позволяет клонировать голос из 15-секундного аудиосэмпла и интерпретировать текст, говорится в пресс-релизе OpenAI по результатам небольшого теста. Бренд выпустил первые образцы, в которых очень сложно отличить голос, сгенерированный ИИ, от эталонного.
«Голосовой двигатель» может читать текст как на языке говорящего, так и на другом. Но выпуск этого нового программного обеспечения вызывает много вопросов относительно безопасности и этики. Мошенническое использование, риск плагиата исполнителя, распространение ложной информации… OpenAI объявила, что использование «Voice Engine» будет ограничено, чтобы предотвратить мошенничество или преступления, такие как кража личных данных.
Для каких целей?
Компания гарантирует, что она применяет «осторожный и осознанный подход» перед более широким распространением нового инструмента «из-за возможности неправильного использования синтетических голосов». Таким образом, OpenAI будет работать «с американскими и международными партнерами из правительства, средств массовой информации, индустрии развлечений, образования, гражданского общества и других секторов». «Мы учитываем их отзывы при разработке инструмента», — сказал издатель.
На данный момент только около десяти разработчиков имеют доступ к этой технологии, в том числе «компания образовательных технологий Age of Learning, платформа визуального повествования HeyGen, производитель программного обеспечения для здравоохранения Dimagi, создатель коммуникационных приложений IA Livox и система здравоохранения Lifespan», указывает специализированный сайт. Грань. В приведенном выше примере мы можем услышать Age of Learning, используя инструмент чтения текста для формулирования образовательного контента или ответов на вопросы учащихся.
Гарантия прослеживаемости
OpenAI уточнила, что партнеры, тестирующие «Voice Engine», согласились с правилами, требующими, среди прочего, явного и осознанного согласия от всех, чей голос дублируется, а также прозрачности для слушателей: им должно быть ясно, что голоса, которые они слышат, генерируются ИИ. «Мы внедрили ряд мер безопасности, включая водяной знак, позволяющий отслеживать происхождение всех звуков, генерируемых Voice Engine, а также упреждающий мониторинг его использования», — настаивают в компании.
В октябре прошлого года Белый дом обнародовал правила и принципы, регулирующие развитие ИИ, включая прозрачность. Джо Байдена тронула мысль о том, что преступники могут использовать его для ловли людей, выдавая себя за членов их семьи. OpenAI также предложила несколько мер, которые могли бы ограничить риски, связанные с инструментами этого типа: законодательство, направленное на защиту использования голосов людей с помощью ИИ, лучшее обучение распознаванию контента, созданного с помощью этих технологий, в частности дипфейкии развитие систем отслеживания этих творений.
Страх перед годом выборов
Эти меры предосторожности на самом деле предлагаются в то время, как исследователи дезинформации опасаются злоупотреблений в использовании приложений генеративного искусственного интеллекта (автоматическое создание текстов, изображений и т. д.) и, в частности, инструментов клонирования голоса, в то время как В этом году мир переживает несколько важных выборов. «Мы осознаем, что способность генерировать человеческие голоса несет в себе серьезные риски, которые особенно значительны в этот год выборов», — согласилась компания из Сан-Франциско.
Недавно соперник Джо Байдена на праймериз Демократической партии, например, разработал автоматизированную программу, которая выдавала себя за американского президента, ведя кампанию за его переизбрание. Голос, имитирующий голос Джо Байдена, призвал избирателей воздержаться на праймериз в Нью-Гэмпшире. С тех пор Соединенные Штаты запретили звонки с использованием клонированных голосов, созданных искусственным интеллектом, в целях борьбы с политическим или коммерческим мошенничеством.
OpenAI — не единственный издатель, интересующийся областью создания аудиотекстов с использованием искусственного интеллекта. Podcastle и ElevenLabs также разработали методы клонирования голоса. Но, учитывая проблемы, связанные с генерацией человеческих голосов, большинство разработчиков вместо этого сосредотачиваются на разработке инструментальных или естественных звуков.
2024-03-30 13:05:14
1711805953
#новый #инструмент #OpenAI #для #клонирования #голоса #за #секунд #LExpress