Home » Нет, Nvidia не открывает ящик Пандоры с DLSS 3.0.

Нет, Nvidia не открывает ящик Пандоры с DLSS 3.0.

Nvidia в роли грязного читера

Жители Аджака часто делятся на две непримиримые группы. Один выбирает Плохосекунда Милый. Извините, один раз AMD × Intel, второй раз AMD × Nvidia, третий раз Samsung × Apple, третий раз Windows × macOS или Chrome × Firefox. Или GNOME × KDE, X11 × Wayland, systemd yes × systemd no, и так далее, и тому подобное. Но редко бывает примирение. Короче говоря, геймеры могут использовать Nvidia, а пользователи Linux — нет. Неважно, виновата она или ее репутация. Но часто репутация скорее негативная. Аргументы разные: его украла 3Dfx, которая потом обанкротилась и была куплена Nvidia, чтобы положить конец продолжающемуся судебному разбирательству по самой его сути. В другой раз она купила Ageia с PhysX, чтобы нарезать разумно работающий PhysX на продуктах AMD и Intel и перенести его на свои графические процессоры. В другой раз это обусловило систему синхронизации G-SYNC наличием более-менее ненужного процессора в ЖК-мониторах. Редко можно найти что-то, где все сообщество соглашается с тем, что это придумала Nvidia, и это было полностью положительное развитие, включая саму концепцию реализации Nvidia.

DLSS — это просто еще одна такая технология, которую можно рассматривать как удивительный революционный путь вперед, но также и как одну большую аферу против геймеров и фактическую фальсификацию тестов в обзорах видеокарт. Так же, как PhysX, 3D Vision или RTX, DLSS также можно найти в ходе развития этой технологии. Итак, позвольте мне сегодня поделиться своим мнением.

Что на самом деле пытается сделать Nvidia?

Прежде всего, я должен честно признаться в своем отношении к этой калифорнийской компании. За последние два десятилетия или около того я использовал что-то с названием GeForce в общей сложности четыре раза, и каждый раз это был продукт, который я выбирал и покупал лично. GeForce лучше, чем Radeon в то время, можно сказать. С другой стороны, Radeon трижды у меня выигрывал, причем в последних двух случаях за счет поддержки на Linux. Я не люблю Nvidia именно из-за ее отношения к Linux, хотя многие ее продукты действительно хороши, часто лучше конкурирующих Radeon. В последний раз, когда я тестировал сопоставимые hi-end продукты обоих производителей, я наградил Radeon HD 7970 и GeForce GTX 680 золотой наградой около 10 лет назад.

Недостаточно железа для игр

Вся шумиха вокруг DLSS — или аналогичной технологии FSR у AMD / грядущей XeSS, аналогичной у Intel — основана на простом аргументе, но давайте сначала вспомним, что такое DLSS. ДЛСС не было Суперсэмплинг для глубокого обучения — это технологический пакет, основанный на машинном обучении, который может улучшить качество визуализируемого изображения (например, в играх), чтобы результат был более детализированным и визуализировался в более высоком разрешении. Проще говоря: там, где GeForce RTX 4090 замедляла бы данную игру в 4k в самых высоких деталях всего на 40 кадров в секунду, с помощью DLSS она замедляет ее до 60 кадров в секунду, чтобы она отображалась в разрешении 2560×1440 с последующее масштабирование AI до 3840×2160. 60 кадров в секунду будет поддерживаться, качество изображения будет на уровне пиксель неподвижные изображения заметно хуже, чем с родным 4к, но в суете игр результат будет тот же, что и с родным 4к. На самом деле больше, потому что 40 кадров в секунду вместо 60 кадров в секунду.

Read more:  Mac Pro с Apple Silicon в том же корпусе, но без увеличения оперативной памяти

Первое поколение DLSS было еще «таким гумполаком» с некоторыми видимыми ошибками в рендеринге. DLSS 2.0 значительно улучшил ситуацию, так как включил данные из окружающих изображений в расчет апскейлинга изображения для более высокого разрешения, т.е. не только пространственный, но и временной фактор. DLSS 3.0 идет еще дальше, видеокарта гораздо больше «играет с ним в рендеринге игровой сцены» и даже выполняет AI-вычисления дополнительных изображений, которые даже не были созданы на GPU. Подобно тому, как ваш смарт-телевизор добавляет несуществующие кадры, чтобы воспроизводимое видео выглядело более плавным.

Более подробная информация о DLSS 3.0 написал Ян Олшан на Cnews относящийся официальная презентация GeForce RTX 4000.

Проблема от имени 4k

Несколько лет назад мы жили в ситуации, когда самым распространенным разрешением монитора игрока было 1920×1080, или 1920×1200. Чаще нет, хотя кое-где использовались 27-дюймовые мониторы с разрешением 2560×1440 или 30-дюймовые мониторы с разрешением 2560×1600. Видеокарты с самыми мощными графическими процессорами достаточно хорошо успевали за темпами развития, так что для новых и более требовательных версий игровых движков они были в состоянии дать плавную производительность (мы тогда не были такими сумасшедшими, поэтому было около 30 fps и больше) в этих разрешениях, но потом пришло 4k, т.е. после G-Sync/FreeSync, в диапазоне мониторов а-ля 40-144 Гц.

В этот момент графические процессоры перестали идти в ногу. с 1920×1080 при 30 кадрах в секунду внезапно стало 3840×2160 с более высокими значениями кадров в секунду – новое поколение графических процессоров должно предлагать больше, чем предыдущие! И в дополнение к этому, Nvidia придумала еще одну (успешную, должен добавить) попытку уникального розыгрыша для игроков, то есть трассировку лучей с GPU-ускорением. Прибыли GeForce RTX 2080 и другие карты этого поколения.

Таким образом, DLSS является логичным результатом. Разрешение увеличило требования к вычислительной мощности графического процессора на целых 100–400%. Спрос на более высокие кратные кадры в секунду заставил стремиться, скажем, к 200% от исходного значения 30 кадров в секунду. Двигатели также стали требовательнее, скажем, примерно на +100%. И вдобавок усилия или даже необходимость расчета эффектов, реализуемых трассировкой лучей. В течение двух-трех лет для графических процессоров внезапно потребовались кратные исходной производительности, в то время как GeForce RTX 2080 Ti мощностью 250 Вт была основана на 12-нм производственном процессе TSMC GPU, а GeForce RTX 3090 мощностью 350 Вт была основана на 8-нм техпроцессе Samsung, а теперь свежая GeForce RTX 4090 перескочила на 4-нм производство TSMC, но ее TDP составляет 450 Вт.

Read more:  3D-микросистема с питанием от света — Live Journal

Nvidia очень старается, мы знаем, что возвращение к TSMC и возможность занять 4-нанометровые линии стоили им миллиардов долларов, выплаченных TSMC заранее. Но даже так, этого просто недостаточно. Хотя 250-ваттная карта была сначала 350-ваттной, а теперь 450-ваттной (и даже до 660-ваттной, говорят), даже сегодня ее просто не хватает, не хватает, не хватает для 3840×2160/60fps с рейтрейсингом и полной детализацией. DLSS 3.0 — это не привычка/бесполезность, это простая необходимость. В принципе, это отличный инструмент, который позволит Nvidia обойти физические ограничения производства с помощью технологий.

Кого действительно волнует несовершенство ИИ-апскейлинга?

Но это нормально? До сих пор мы привыкли к тому, что когда игра отображается в формате 1080p, это всего лишь 1080p. Сегодня кажется, что разрешение 4k ничего не значит. Нет, но это как исправить. Любой, кто хоть раз имел возможность сравнить, например, 4к-запись с беззеркальной камеры Panasonic GH4 с 4к-записью с дешевого телефона на Android, прекрасно знает, что и то, и другое 4к, но у последнего реальная детализация записи больше на 2к уровень.

Любого обозревателя, который сравнивает DLSS 3.0 с родным разрешением на неподвижных изображениях в своей статье или YouTuber на своем канале, следует считать неосведомленным. Эта технология нацелена не на статичное изображение (именно поэтому у нас есть такие инструменты фотографии, как Topaz AI), а на изображение, которое меняется каждые несколько десятков миллисекунд. Его цель не статичное завершение, а восприятие заядлого игрока. И если это реализовать с помощью DLSS 3.0, чтобы плеер с 4к монитором получал свою плавность до 144 фпс в родном разрешении дисплея, то так тому и быть.

Мы не против несовершенства. Фильмы со сжатием мы смотрим практически с момента перехода от фотоэмульсии к первым аналоговым магнитофонным камерам и записи на кассеты типа Betacam/VHS. Не говоря уже об артефактах сжатия форматов семейства MPEG, включая предпоследний H.265/HEVC.

Мы не против несовершенства даже в играх. В конце концов, вся эта растеризация GPU и все остальное, возможно, за исключением этой трассировки лучей, — это просто методы, позволяющие сделать работу, подобную физически совершенному оригиналу, намного более дешевой в вычислительном отношении. Мы не против, ведь если в игре есть атмосфера, то все прощается.

Даже в звуке мы довольны несовершенством. Это может быть цифровое несовершенство, например, 256 кбит/с AAC или 768 кбит/с 5.1 DTS. Это могут быть MP3-файлы 25-летней давности со скоростью 128 кбит/с. Это могут быть записи на аудиокассеты, когда мало кто дошел выше кассет типа Хром. Также это может быть компромиссная пластинка типа Westrex 45/45, т.е. классический патефон, ограниченный механическими возможностями переноса. Все это то, к чему мы привыкли. В 1971 году мы не возражали против того, что Pink Floyd Echoes не совсем соответствовал тому, что музыканты играли в студии. Нас также не смущает, что 16-битная 44,1 кГц стереозапись постановки Неймана «Ленинград» Шостаковича не является абсолютно точным отражением оригинального исполнения этой симфонии.

Read more:  Была ли Люси Летби маловероятным серийным убийцей? Для большинства людей да, но не для психологов | Марисса Харрисон

Мы со временем привыкнем даже к несовершенным системам вроде DLSS, и если не мы, то поколение, которое сегодня таскает утку по двору, вырастет вместе с ними и они будут для них таким же верным отражением реальности, как тот Pink Floyd e-LP для нас. Потому что, в конце концов, конечный пункт находится в другом месте.

Конечная цель всего этого, на мой взгляд, даже на порядок дальше. Однажды с помощью специалистов по искусственному интеллекту мы будем передавать данные в виртуальные очки с разрешением 32k и частотой 120 кадров в секунду. Даже GPU, изготовленный по 0,01-нанометровому техпроцессу, не сможет рассчитать что-то подобное, поэтому запустится искусственный интеллект, обученный десятилетиями во имя DLSS версии 15.0. Это может дать нам почти идеальное восприятие, даже если 80% этого восприятия состоит из элементов, изобретенных ИИ.

Я не говорю, что это нормально. Я полностью согласен с историками, которые кричат ​​от отчаяния каждый раз, когда кто-то берет древний кадр с камеры со скоростью 10 кадров в секунду и пропускает его через машинно-обученную нейронную сеть, которая окрашивает его, масштабирует до 4k и закрашивает кадры до 60 кадров в секунду. Это исторически не верно, хотя иногда интересно посмотреть на такие реконструкции.

Это все еще правда, что я не люблю Nvidia. Но DLSS — это последнее, в чем я бы его винил, как раз наоборот. Будем рады, что эта технология существует, ведь самое худшее, что о ней можно сказать, это то, что она либо полезна, либо может быть отключена пользователем. В конце концов, представьте, что Nvidia на самом деле хорошо к нам относится. Если бы однажды она не сообщила нам, что разработала что-то вроде DLSS 4.0, то вполне могло случиться так, что через 1 год после запуска какого-нибудь GPU следующего поколения один из ИТ-редакторов обнаружит, что что-то не так на скриншотах игр. Наконец, они с некоторой долей уверенности определяют, что Nvidia на самом деле не рендерит игру с разрешением 3840×2160/144fps, а скорее с разрешением 2560×1440/60fps и делает все остальное, но большинство геймеров может удивиться тому, что они не замечали этого до сегодняшнего дня. Вместо этого у нас есть подробные описания того, как работает технология (теперь DLSS 3.0). Необычная открытость для довольно закрытой Nvidia.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.