Home » Nvidia представляет H200, мощный графический процессор с искусственным интеллектом, который может ускорить ChatGPT

Nvidia представляет H200, мощный графический процессор с искусственным интеллектом, который может ускорить ChatGPT

Увеличить / Восемь графических процессоров Nvidia H200 покрыты причудливым синим взрывом, который образно представляет собой яркую вспышку вычислительной мощности.

Нвидиа | Бендж Эдвардс

В понедельник Нвидиа объявлено HGX Н200 Графический процессор Tensor Core, использующий архитектуру Hopper для ускорения приложений искусственного интеллекта. Это продолжение Графический процессор H100, выпущенный в прошлом году и ранее являвшийся самым мощным чипом AI GPU от Nvidia. В случае широкого внедрения это может привести к созданию гораздо более мощных моделей искусственного интеллекта и более быстрому времени отклика для существующих моделей, таких как ЧатGPT-в ближайшем будущем.

По мнению экспертов, нехватка вычислительных мощностей (часто называемых «вычислительными») стала главное узкое место прогресса ИИ в прошлом году, что препятствует внедрению существующих моделей ИИ и замедляет разработку новых. Нехватка Во многом виноваты мощные графические процессоры, которые ускоряют модели искусственного интеллекта. Один из способов устранить «узкое место» в вычислениях — это производить больше чипов, но вы также можете сделать чипы искусственного интеллекта более мощными. Второй подход может сделать H200 привлекательным продуктом для поставщиков облачных услуг.

Чем хорош H200? Несмотря на букву «G» в названии «GPU», подобные графические процессоры для центров обработки данных обычно не предназначены для графики. Графические процессоры идеально подходят для приложений искусственного интеллекта, поскольку они выполняют огромное количество параллельных умножений матриц, необходимых для функционирования нейронных сетей. Они необходимы в обучающей части построения модели ИИ и в части «вывода», когда люди вводят входные данные в модель ИИ, и она возвращает результаты.

«Чтобы создать интеллект с помощью генеративного искусственного интеллекта и приложений HPC, огромные объемы данных должны эффективно обрабатываться на высокой скорости с использованием большой и быстрой памяти графического процессора», — сказал Ян Бак, вице-президент по гипермасштабированию и HPC в Nvidia, в пресс-релизе. «Благодаря Nvidia H200 ведущая в отрасли комплексная суперкомпьютерная платформа искусственного интеллекта стала быстрее решать некоторые из наиболее важных мировых задач».

Read more:  Uber будет показывать водителям, сколько они заработают, прежде чем согласиться на поездку

Например, OpenAI имеет неоднократно говорил у него мало ресурсов графического процессора, и это приводит к замедлению работы ChatGPT. Компания должна полагаться на ограничение скорости, чтобы предоставлять какие-либо услуги вообще. Гипотетически, использование H200 может дать существующим языковым моделям искусственного интеллекта, использующим ChatGPT, больше возможностей для обслуживания большего количества клиентов.

Пропускная способность 4,8 терабайт/секунду

Восемь чипов графического процессора Nvidia H200 на несущей плате HGX.
Увеличить / Восемь чипов графического процессора Nvidia H200 на несущей плате HGX.

Нвидиа

По данным Nvidia, H200 — первый графический процессор, предлагающий HBM3e Память. Благодаря HBM3e H200 предлагает 141 ГБ памяти и пропускную способность 4,8 терабайта в секунду, что, по словам Nvidia, в 2,4 раза превышает пропускную способность памяти у модели HBM3e. Нвидиа А100 выпущен в 2020 году. (Несмотря на возраст A100, он по-прежнему пользуется большим спросом из-за нехватки более мощных чипов.)

Nvidia выпустит H200 в нескольких форм-факторах. Сюда входят серверные платы Nvidia HGX H200 в четырех- и восьмипроцессорных конфигурациях, совместимые как с аппаратным, так и с программным обеспечением систем HGX H100. Он также будет доступен в Нвидиа GH200 Суперчип Grace Hopper, который объединяет центральный и графический процессоры в одном корпусе для еще большей производительности искусственного интеллекта (это технический термин).

Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure станут первыми поставщиками облачных услуг, которые развернут экземпляры на базе H200, начиная со следующего года, и Nvidia заявляет, что H200 будет доступен «от мировых производителей систем и поставщиков облачных услуг», начиная со следующего года. во втором квартале 2024 года.

Тем временем Nvidia играет в игра в кошки-мышки с правительством США по поводу ограничений на экспорт мощных графических процессоров, которые ограничивают продажи в Китай. В прошлом году Министерство торговли США объявило об ограничениях, призванных «не допустить попадания передовых технологий в чужие руки», таких как Китай и Россия. Nvidia ответила созданием новых чипов для обойти эти барьеры, но США недавно их тоже запретил.

Read more:  Сильный ум Скотти Шеффлера может стать его лучшим преимуществом на турнире Masters.

На прошлой неделе Рейтер сообщил что Nvidia снова взялась за дело, представляя три новых уменьшенных чипа AI (HGX H20, L20 PCIe и L2 PCIe) для китайского рынка, что составляет четверть доходов Nvidia от чипов для центров обработки данных. Два чипа не подпадают под ограничения США, а третий находится в «серой зоне», которая может быть разрешена при наличии лицензии. Ожидайте увидеть больше изменений между США и Nvidia в ближайшие месяцы.

2023-11-13 21:44:44


1699932239
#Nvidia #представляет #H200 #мощный #графический #процессор #искусственным #интеллектом #который #может #ускорить #ChatGPT

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.