Home » OpenAI анонсирует GPT-4o

OpenAI анонсирует GPT-4o

OpenAI анонсировала последнюю версию своего популярного чат-бота ChatGPT: GPT-4o. «О», происходящее от слова «Омни», символизирует миссию OpenAI по созданию более естественного взаимодействия между компьютерами и людьми.

Эта итерация превосходит предыдущие версии по функциям и удобству использования, особенно для конечных потребителей. Устранены ограничения предыдущей версии по обработке текстовых, аудио и видео файлов. Теперь пользователи могут взаимодействовать более естественно в реальном времени.

Демо-день OpenAI и выпуск GPT-4o

OpenAI, поддерживаемая инвестициями Microsoft, оценивается в 80 миллиардов долларов. Компания, основанная в 2015 году, старается оставаться лидером на рынке. генеративный ИИ и создадим прибыльную бизнес-модель, а также обучение ИИ и создание инфраструктуры его развития стоили больших денег.

Традиционно, большие языковые модели (LLM) специализируется на обработке текстовых данных. Модель обеспечивает новый прорыв во взаимодействии и использовании ИИ по всему миру. Однако этот ограниченный ввод текста также ограничивает способ нашего взаимодействия с моделью ИИ, которая иногда кажется менее естественной и слишком жесткой.

На своем демонстрационном дне OpenAI представила несколько новых способов взаимодействия с GPT-4o. Новейшая модель теперь может понимать интонацию и то, как пользователи говорят и предоставляют информацию.

Мира Мурати, технический директор, при содействии двух руководителей исследований OpenAI, Марка Чена и Баррета Зофа, продемонстрировала, как GPT-4o теперь может реагировать на смех, пение или даже обеспечивать живой перевод. в реальном времени через голосовой режим. Voice Mode готовится к публичному выпуску на платформах смартфонов и настольных компьютеров.

Некоторые функции GPT-4o на демонстрационном дне

Способность модели GPT-4o обрабатывать и воспроизводить аудио, визуальные и текстовые модальности можно применять в качестве решения различных проблем. OpenAI планирует протестировать этот голосовой режим на следующей неделе и выпустить его для платных клиентов ChatGPT Plus.

Мира также сообщила, что модель GPT-4o может реагировать на звуковую подсказку пользователя всего за 232 миллисекунды, в среднем за 320 миллисекунд, что аналогично реакции человека при обычном разговоре.

Read more:  LG анонсирует OLED-монитор с частотой 2 Гц и режимами 4K 240 Гц и FullHD 480 Гц

Одним из примеров голосового режима на демонстрационном дне OpenAI был случай, когда Чен продемонстрировал способность GPT-4o рассказывать сказки на ночь и дал инструкции по изменению интонации при изложении истории, чтобы сделать ее более драматичной во время пения.

Затем Чен продемонстрировал GPT-4o в качестве переводчика. В голосовом режиме ChatGPT, усиленный GPT-4o, может переводить Миру, говорящую по-итальянски, и связывать разговор с Ченом, который говорит по-английски напрямую. в реальном времени.

Учитывая богатые возможности GPT-4o, конечно, существуют определенные риски. OpenAI также признает этот риск, поскольку существует вероятность неправильного использования голосового режима, который может воспроизводить естественные звуки. Чтобы снизить этот риск, OpenAI встроила средства защиты процессов. обучение Айня и выпустит выход звук периодически.

ChatGPT, обогащенный GPT-4o, выпущен для клиентов ChatGPT Plus и Team. Корпоративные пользователи примут обновлять это следующее, в то время как бесплатные пользователи смогут пользоваться этими новыми функциями в ограниченном объеме. Пользователи ChatGPT Plus имеют в пять раз больше возможностей для обмена сообщениями по сравнению с бесплатными пользователями.

2024-05-16 07:38:23


1715856740
#OpenAI #анонсирует #GPT4o

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.