RTX 3000 Series: немного дегтя в бочку меда

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com (подробнее »)
| Обзор | Компьютерные и мобильные игры

Недавняя презентация новой серии видеокарт Nvidia RTX 3000 Series вызвала бурный восторг аудитории, и она была действительно прекрасно проведена. Но так ли уж великолепны представленные видеокарты, как показалось на первый взгляд? 

Восхищает, то как Дженсен Хуанг сумел сфокусировать внимание аудитории на преимуществах, убрав с повестки сомнительные моменты. А они есть, и я предлагаю посмотреть на них тоже, потому как во всем нужен трезвый взгляд и прежде чем вы побежите отдавать зеленой компании свои денежки, стоит учесть все факторы.

Цена

Начну с цены. Объявление цен вызвало бурный восторг аудитории. И причина тому проста — Хуанг настолько приучил аудиторию к тому, что цены на его продукты растут вместе с ростом производительности, что все ждали и готовились к намного более высоким ценам. Поэтому, тот факт что цены остались на уровне MSRP поколения Turing был воспринят как невероятная щедрость. Удивительно да? 

А между тем именно поколение Turing очень сильно подняло цены, смотрите таблицу с MSRP ценами ниже:

MaxwellPascalTuringAmpere

GTX 980

$549

GTX 1080

$599

RTX 2080

$699

RTX 3080

$699

GTX 970

$329

GTX 1070

$379

RTX 2070

$499

RTX 3070

$499

Вы все еще считаете, что Хуанг проявил чудеса щедрости? Мне лично кажется, что только угроза со стороны консолей нового поколения вынудила его умерить свои аппетиты. Но и здесь он умудрился слукавить, я имею в виду память. И это следующий важный момент.

Память

Я считаю, что 8-10 ГБ памяти новым видеокартам, рассчитанным на 4К разрешение, это мало. Этого хватает сейчас, но через пару лет у нас пойдут игры, заточенные полностью под новые консоли, которые имеют до 10 ГБ памяти под нужды GPU. ПК традиционно требует больше оперативной и видеопамяти для игр чем консоль при прочих равных и это вполне может привести к тому, что про 4К через пару лет владельцы RTX 3080 вынуждены будут забыть.

Скорее всего нас ждут версии Ti либо просто нереференсные версии с увеличенным объемом памяти, которые и станут разумными и сбалансированными по характеристикам предложениями на рынке для тех кто не любит менять GPU каждые год-два. Например, уже есть слухи про 3070 Ti и 3080 Ti с 16-ю и 20-ю гигабайтами памяти соответственно. Но и цены там разумеется будут другие, минимум на сотню-другую долларов выше. То есть формально цены не выросли, но реально придется заплатить больше чтобы не потерять на необходимости поменять карточку через пару лет.

Энергоэффективность

Rich Leadbetter из Digital Foundry опубликовал видео с первыми результатами сравнения RTX 3080 с RTX 2080 и пришел к выводу что в среднем новая карта оказалась быстрее предыдущей на 70-80%. Это безусловно огромный скачок производительности и именно такой скачок при сохранении цены и заставил всех считать цены «демократичными».

Но тут есть интересный момент — TDP новой RTX 3080 составляет 320 ватт. Еще недавно энергоэффективность была священной коровой Nvidia, которая ею гордилась и не забывала обратить внимание насколько ниже энергопотребление ее карт на фоне равнозначных или даже более слабых по производительности карт AMD. Напомню, TDP у RTX 2080 составляет 225 ватт.

В итоге мы имеем 75-ти процентный прирост производительности при 50-ти процентом приросте энергопотребления.  То есть с точки зрения энергоэффективности прирост не выглядит таким уж большим, а это значит, что сама по себе архитектура не претерпела существенных улучшений, в основном прирост обеспечен увеличением числа исполнительных блоков благодаря возможностям нового тех. процесса.

Ну и что?

На самом деле все вышесказанное не столь критично, даже вопрос памяти ближайшие пару лет не будет никого беспокоить. Все вышесказанное имеет целью довести до вас, что новая серия видеокарт возможно не столь потрясающа, как это могло показаться из блестяще проведенной презентации и не стоит сломя голову бежать покупать прямо сейчас. Но вместе с тем карточки безусловно великолепны, если вы готовы выложить за них их немалую цену. 

А если не готовы, то вас должно порадовать другое — столь существенный скачок производительности за те же деньги неизбежно уронит цены карт текущего поколения и сделают их весьма выгодными предложениями на б/у рынке. И на ближайшие пару лет, если не заморачиваться с 4К, той же 2070 Super, например, хватит за глаза. И это уже может быть вполне рациональным выбором сейчас.

Ждать ли анонс RDNA2?

На мой взгляд однозначно ждать. По двум причинам.

Во-первых, у AMD теоретически есть возможность представить что-то уровня той же RTX 3080. Смотрите сами — RTX 3080 на 75 процентов быстрее чем RTX 2080, последняя в свою очередь, если смотреть по рейтингу производительности на сайте Techpowerup, примерно на 16 процентов быстрее чем RX 5700 XT. Перемножение приростов показывает, что AMD нужно представить Big Navi в два раза быстрее чем RX 5700 XT, чтобы догнать RTX 3080.

Навскидку это не выглядит невозможным. Судя по слухам Big Navi будет ровно в два раза больше чем RX 5700 XT — восемьдесят compute units вместо сорока. Плюс AMD обещает 50-ти процентный прирост энергоэффективности в сравнении с RDNA. В принципе уже может хватить. Так же можно обратить внимание на сравнение размеров чипов. RTX 3080 это 28 млрд транзисторов на 627 мм2 площади, RX 5700 XT это 10,3 млрд транзисторов на 251 мм2 площади. То есть даже удвоенный чип AMD все еще может оставаться меньше по размеру чем RTX 3080, давая возможность дальнейшего увеличения. 

Я не берусь предсказывать, что AMD осилит задачу выкатить достойного конкурента RTX 3080, лишь привожу некоторые аргументы в пользу того, что это не выглядит невозможным. И тогда будет иметь смысл также посмотреть в сторону AMD.

Но даже если вы не рассматриваете покупку видеокарты от AMD в принципе, стоит подождать хотя бы потому, что выход конкурентоспособных предложений от AMD в свою очередь может повлиять на ценовую и ассортиментную политику Nvidia, сделав ее продукты еще более выгодными. 

Во-вторых, если вы в восторге от DLSS, вам стоит знать о том, что AMD предлагает свою альтернативу, которая может даже превосходить DLSS в отдельных аспектах. В частности, на примере игры Death Stranding в статье по ссылке сделан вывод, что технология от AMD под названием FidelityFX Contrast Adaptive Sharpening обеспечивает немного лучшее качество картинки и производительность, нежели DLSS 2.0 в режиме «качество». 

В обзоре отмечается, что в Death Stranding DLSS хуже справляется с реконструкцией мелких деталей изображения, построенных с использованием частиц. Тогда как FidelityFX сохраняет больше деталей и прибавляет 2-3 кадра к производительности,  обеспечивая в целом аналогичное общее качество картинки как и DLSS 2.0 в режиме «качество».

По словам одного из участников Radeon Community Team от AMD на Reddit:

  • AMD FidelityFX это инструментарий для разработчиков, позволяющий улучшить соотношение производительность/качество изображения.
  • Главная составляющая FidelityFX это Contrast Adaptive Sharpening, революционный метод повышения четкости деталей изображения без типичных артефактов и практически без снижения производительности, особенно на картах AMD RDNA.
  • Благодаря своей способности визуально реконструировать детали изображения в игровом процессе, FidelityFX часто сочетается с масштабированием изображения, позволяя достичь необходимого качества и детализации картинки используя меньшее разрешение рендеринга.

Новая архитектура RDNA2 должна предложить больше возможностей в этом направлении, а учитывая что эти возможности наверняка будут активно использоваться в консольных играх, стоит ожидать и их реализацию на ПК. Что в свою очередь повысит привлекательность решений AMD и даст возможность выбора. А возможность выбора и конкуренция всегда на пользу покупателю.

Итого

Не спешите с покупкой RTX 3000, дождитесь конкурентных предложений и реакции Nvidia на них и только потом принимайте решение взвешенно сравнив альтернативы. Будет обидно купить RTX 3080 и через месяц узнать что Nvidia выпускает, к примеру, RTX 3080 Super за те же деньги, но быстрее и с большим объемом памяти. Берегите свои деньги, потому как стоят новые видеокарты очень немало.

Автор не входит в состав редакции iXBT.com (подробнее »)

122 комментария

Arguzd
По поводу памяти — там как раз и презентовали RTX IO. Вставлять кучу памяти в саму видеокарту в целом неэффективно, если у нас итак есть ОЗУ и ссд. Гораздо логичнее ускорить обмен данными именно с ними, ибо канал обмена данными и есть бутылочное горлышко, а не объём памяти карт. Это поняли и проектировщики консолей, это поняли и NVidia. Для профессионалов конечно будут выходить карты с большой встроенной памятью, но там задачи совершенно другие. Опять же, 4к это конечно хорошо, но это всё ещё формат телевизоров, а не компьютерных мониторов. Подавляющее большинство бояр сидит на 2к и больше им тупо не нужно. По поводу энергоэффективности — внезапно правда? Оказывается, если вставляешь больше вычислительных блоков в те же размеры видеокарты, видеокарта начинает больше жрать энергии и больше выделять тепла. Кто бы мог подумать. И опять же, не рассмотрены софтверные возможности новых карт, которые по сути демонстрируют направление развития NVidia. Да, у AMD будут аналоги, иначе они на рынке не выживут. Но они всё равно опаздывают на пару лет. И до принятия единых стандартов в том же рейтрейсинге они неизбежно будут отставать. С другой стороны опять же верно, что и решения от NVidia не будут массово внедрятся во все игры подряд. Для разработчиков это лишняя работа, которую увидит лишь часть аудитории. И недостатки у поколения есть. Но это не описанные недостатки.
AnotherStranger
RTX IO никогда не заменит работу видеопамяти, да и не должен — это просто средство более легкой загрузки данных в видео память. Nvidia в своей презентации на ставила акцент именно на снижение нагрузки на процессор-память, а потом уже речь шла о большем объеме *сжатых* данных — и там уже не такая космическая разница по скоростям, по сравнению с классическим подходом. Правда, в настоящее время, в играх видеокарта загружена под 100%, в то время как процессор «отдыхает». А в больших разрешения нагрузка на CPU возрастает не сильно, в то время как на видеокарту практически линейно. Но nvidia говорит, что распаковка не сильно влияет на gpu.
NVIDIA очень не любит раздавать бесплатно свои «стандарты», а их сотрудничество с MS может вылиться в монополию, если они «устранят» AMD. Так что поклонникам nvidia надо молиться на AMD, и всячески не допускать выживания этой компании с рынка видеоускорителей. Любишь nvidia — покупай AMD.
Arguzd
Я и не говорил, что RTX IO должен заменить видеопамять. Я говорил, что увеличение видеопамяти бессмысленно, поскольку бутылочное горлышко это интерфейс ввода-вывода. Сейчас память видеокарты увеличивают затем, что бы реже обращаться к ПЗУ, что и требует больше всего времени. Если уменьшить затраты на обмен данными с ПЗУ, видеокарте требуется меньше хранить данных в своей памяти и увеличение её объёма теряет смысл. А использовать вместо GDDR ссд, это всё равно что использовать ссд вместо кэш-памяти процессора. Но никто же не говорит «у моего процессора кэш-память в два раза больше, чем у твоего, поэтому мой процессор в два раза круче».
А про то, что монополия это зло, ну кгбе очевидно. Капитализм он такой, да. Но я говорил не про стандарты nvidia, а про открытые универсальные стандарты. Чем больше тензорные ядра будут использоваться в разных отраслях (а они будут), тем больше будет появляться альтернативных решений. Чем больше альтернативных решений, тем больше геморроя в настройке и масштабировании. Чем больше геморроя из-за разных интерфейсов, тем выше вероятность создания универсального стандарта. USB, Bluetooth, Wi-Fi это именно такие стандарты. Но до момента появления аналогичных стандартов для тензорных ядер, решения nvidia всё ещё будут самые лучшие. И логика «неси деньги конкуренту, чтоб не было монополии», не работает. Но я в экономику не хочу сейчас лезть, там не на один час всё это разбирать. Остановлюсь на том, что давиться соей, когда можешь и хочешь купить мяса, что бы производители мяса не стали монополистами, очень странная логика.
Последний раз редактировалось
AnotherStranger
Объем видеопамяти увеличивают чтобы разработчики размещали там, в основном, еще более четкие текстуры, снижение частоты обращения к ПЗУ — вторичный эффект, зависящий от кривизны рук разработчиков. Посмотрите еще раз на презентацию nvidia, она делает ставку именно на снижение нагрузки на проц-память при загрузке большого объема данных. Бутылочное горлышко тут все равно конечная скорость работы SSD диска, и она все равно в разы меньше чем скорость работы ОЗУ ИЛИ VRAM, так что максимальная скорость загрузки всегда будет упираться в возможности стандартных(на текущий момент) SSD, что при классическом подходе, что при RTX IO. Нагрузка на компоненты распределится иначе.
p.s. сравнение мясо и сои считаю некорректным, ибо это очень сильно отдаленная аналогия, и, оттого, неприменима.
Последний раз редактировалось
Arguzd
У ссд скорость работы не может быть меньше, чем у ОЗУ, поскольку это та же самая DRAM или флеш память. А меньше там именно скорость обмена данными, что есть скорость интерфейса ввода-вывода, о которой я и говорю. И в третий раз — я не говорю, что ссд должен заменить видеопамять. Видеопамять это кэш видеокарты. Кэш логично должен соответствовать размеру обрабатываемых данных. Но у нас сейчас текстуры в играх не весят по 8 гб. Но память наращивают, что бы загружать сразу всю игровую карту и не было видимых дозагрузок в процессе перемещения по карте. А дозагрузки случаются именно из-за задержки в выгрузке текстур из ПЗУ. Уменьшив эти задержки мы уменьшаем условный радиус, в котором надо подгружать модели в высоком разрешении. Это не значит, что вся игровая карта должна храниться на ПЗУ и видеокарта должна работать с ссд. Это значит, что видеокарта с 8Гб видеопамяти и быстрым доступом к ПЗУ может работать аналогично видеокарте с 16-24Гб видеопамяти и с обычным доступом к ПЗУ, через ЦПУ.
AnotherStranger
У SSD скорость работы СИЛЬНО медленнее чем у ОЗУ, иначе бы никто не использовал сейчас DRAM. Если очень просто, то 1 бит информации в DRAM хранится в конденсаторе с практически произвольным доступом, то в NAND памяти хранение происходит в транзисторе с блочным доступом. Не замечали, что даже чтение с SSD медленнее записи на него же? DRAM может в SSD стоит и «та же самая», только ее ну очень мало, а дальше уже совершенно другая как по структуре, так и по логике работы память.
Самой большой задержкой в загрузке данных в видеопамять все равно будет иметь внешний накопитель, как самая медленная часть системы. Задержки связанные с прогоном данных через цп-озу в обычных условиях очень незначительны, по сравнению с задержками получения их от SSD.
Ну не будет видеокарта с 8Гб VRAM благодаря прямому доступу у внешнему накопителю работать как видеокарта с 20Гб, не бывает чуда в технологиях, тем более когда производитель его и не заявляет.
Arguzd
Так я и говорю, что скорость работы с памятью у ссд меньше скорости ОЗУ именно потому, что там разные интерфейсы доступа к данным. И в четвёртый раз — я не говорю, что ссд должен заменить озу или видеопамять. И прогон через цпу-озу как раз значителен и производитель как раз заявляет существенное ускорение работы с данными как из-за пропуска загрузки/выгрузки ОЗУ, так и из-за пропуска этапа с декодированием текстур через процессор.
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-announcing-rtx-io.jpg
Дословно с их сайта «Specifically, NVIDIA RTX IO brings GPU-based lossless decompression, allowing reads through DirectStorage to remain compressed while being delivered to the GPU for decompression. This removes the load from the CPU, moving the data from storage to the GPU in its more efficient, compressed form, and improving I/O performance by a factor of 2.»
AnotherStranger
… Ох. Отвечаю последний раз, больше ни желания, ни аргументов.
Если бы разница в скорости работы SSD и ОЗУ заключалась бы только в интерфейсе доступа к данным, то мы бы уже давно покупали «парные планки SSD» в DIMM слоты материнской платы. Разница заключается в самом способе организации хранения данных и доступа к ним, и она принципиально различная. Сами ячейки NAND flash памяти работают медленнее DRAM и ничего тут не поделаешь.
Прогон через ЦП-ОЗУ как раз значителен ПРИ РАСПАКОВКЕ данных самим ЦП, относительно GPU. И в этой цитате, а также много еще где в этой статье, как раз говорится о снижении нагрузки на ЦП. Накладка по времени доставки данных к GPU через ЦП-ОЗУ ничтожна по сравнению со скоростью отдачи этих данных самим SSD.
Arguzd
«та же самая DRAM или флеш память.» Мой косяк. RTX IO работает только с DRAM ссд.
28349596@vkontakte
не понимаю в чем проблема, у амд сжатые данные идут в оперативу, у нвидиа на ссд. Где доступ будет быстрее, думаю говорить не стоит… Проц, если это не интел, справляется с запасом. Так что у хуанга проблема выдуманная, чтобы в очередной раз на чем то экономить, приделывая костыли
S
Да всё хорошо будет, когда 2080 выходила, народ тоже сильно возмущался, что всего 8 Гб видеопамяти, в то время как у 1080 Ti было 11 Гб. Но время показало, что всё относительно и в целом между картами паритет. А потом вышла 2080 Super, которая была уже явно быстрее, несмотря на такой же «дефицит» памяти — 8 Гб против 11 Гб. Тем более сейчас RTX IO, который на деле DirectStorage API и PCI Express 4.0 внедряют явно не для галочки. Максимальный фпс это конечно не поднимет, но от микрофризов (которые отвечают за минимальный и средний фпс) наверняка избавит почти полностью.
AnotherStranger
Проблема нехватки денег у россиян должна волновать, в первую очередь, самих россиян и их правительство.
Так что Хуанга проблемы папуасов не волнуют, покуда есть люди покупающие его продукцию.
k
Не спешите с покупкой RTX 3000, дождитесь конкурентных предложений и реакции Nvidia
я и не тороплюсь, ждём биг нави, нормальных драйверов для 3й серии, но чудес от navi не жду, вполне допускаю что жор у него будет как минимум не меньше 320 ватт, а нагрев, ps5 по слухам будет как минимум с жидким металлом, fury все помнят? только водянка, с урчащей помпой от astek. Дай бог «это» окажется не слабее 3070 в 3 ведьмаке в qhd, лучи и прочее пока не интересуют, но пусть развивают дальше, я ж не против)
Будет обидно купить RTX 3080 и через месяц узнать что Nvidia выпускает, к примеру, RTX 3080 Super за те же деньги,
ой как жирно, всегда через год, а то и раньше, выйдет что то лучше, по цене/производительность, НЕЗависимо от того, что вы купили, 750 ti или titan xp. Если боитесь отыквиться (сильно потерять в цене при перепродаже), либо покупайте mainstream карты (они меньше теряют в цене), либо меняйте видеокарты каждые 6 мес, ваше право.
С ценой msrp смешно читать, вы учитываете только «жадность» Хуанга, вспомните amd vega frontier c hbm2 16gb, сравните с vega 56, pcb платы практически не отличаются, а цена?
ИМХО Сейчас погоня за высокой герцовкой (fps), а высокие разрешения (больше fhd) для большинства не интересны, да и на процессор нагрузка на поток при этом возрастает многократно, даже топы цп не вытянут, видяха будет простаивать. Поэтому видеопамяти в 8-12 GB вполне достаточно (на 2-3 года еще вперед), при условии что системный диск со свапом на sdd, а лучше на nvme + сама игра на другом ssd/nvme.
Последний раз редактировалось
Zabr

Ответ kocsa на комментарий
вполне допускаю что жор у него будет как минимум не меньше 320 ватт


Как и у RTX 3080, если производительность будет сопоставимая — то паритет.

Ответ kocsa на комментарий
ой как жирно, всегда через год, а то и раньше, выйдет что то лучше, по цене/производительность, НЕЗависимо от того, что вы купили, 750 ti или titan xp.


Я просто вспомнил неожиданный выпуск серии Super сразу после анонса серии RX 5700 от AMD. Тем кто незадолго до этого купил обычные RTX карты было наверное немного обидно. В этот раз Nvidia оставила себе заранее пространство для маневра. Она может сказать, например, что объявленные цены это за founders edition, и карты от вендоров будут дешевле.

Ответ kocsa на комментарий
С ценой msrp смешно читать, вы учитываете только «жадность» Хуанга


Просто речь шла о презентации Хуанга. AMD тоже не страдает излишним альтруизмом.

Ответ kocsa на комментарий
Поэтому видеопамяти в 8-12 GB вполне достаточно (на 2-3 года еще вперед)


Ну я и написал что на пару лет хватит. Хочется правда дольше, когда полтинник за карту выкладываешь
A
Короче, это поколение тоже можно пропускать. 1070 пока-что справляется с ультра настройками почти во всех играх в 1080p. Использую лок на 60 ФПС и очень редко вижу просадки ниже этого значения. Хотя подозреваю, что проблема здесь не в видеокарте, а в процессоре Райзен с его инфинити фабрик (и в говённой оптимизации игр). В ближайшие пару лет придётся играть, в худшем случае, на ультра-высоких. Переживу. А там уже и 4000-я серия Nvidia выйдет. Вот к ней будет резон присмотреться. При условии, что игры не превратятся в высокотехнологичные пустышки, или просто сохранится к ним личный интерес. Так что спешить с вложениями в данную область точно не стоит. Хотя если у вас какая-нибудь тыква 700-й серии, то присмотреться к 3000-й определённо стоит: не такие наглые цены, как в предыдущей.
Последний раз редактировалось
m

Ответ 108909409157583570372@google на комментарий
1070 пока-что справляется с ультра настройками почти во всех играх в 1080p


Без лучей. А значит, ультры условные.
A
Маркетологи на то и делают ставку — чтобы люди парились за полные ультра настройки и тратили ради них баснословные деньги. Мне эти лучи нафик не нужны, как и многие другие, якобы, очень нужные настройки, эффект от которых сложно разглядеть даже на сравнительных скринах, не говоря уже об активном игровом процессе. Хотя я не осуждаю тех, кому не жалко отрезать целый кусок бюджета ради чуть лучшего освещения или затенения — каждому своё.
28349596@vkontakte
Абсолютно согласен с автором, за исключением одной детали. Как владелец веги7, могу сказать, что есть уже ряд игр, что потребляет более 11гб видеопамяти!
A
Это потому, что в видюхах амд другой алгоритм сжатия данных в видеопамяти. Можете найти сравнение загрузки видеопамяти у веги 7 и ртх то ли 2070, то ли 2080, и у веги всегда используется бтльше
28349596@vkontakte
да, и даже знаю, на что влияет данные сжатия, много потерь в тенях и иногда текстуры не успевают прогружаться
Zabr
Игра может просто занимать весь доступный объем памяти, кешируя данные по принципу а почему бы и нет. Поэтому по замерам потребления памяти игрой на разных картах нельзя судить о реальной потребности в памяти.
105050131@vkontakte
Отличная статья, правда автор забыл упомянуть встроенные в Амперы читы, за счет которых и достигнут основной прирост fps. Перечислю:
1. Динамическое скалирование 2. Шахматный рендеринг 3. Подгрузка качественных текстур в рожу игроку (рядом с камерой) с одновременным замыливанием и даунскейлом задников 4. Рендеринг картинки в 2.5К и ее апскейл в 4К с помощью DLSS...
Я удивляюсь чего не 100% прирост fps, а всего 80%?
Последний раз редактировалось
Zabr
Я думаю не все так плохо, тем более что и с традиционной растеризацией вроде как прирост те же 70 процентов. Но даже если и так — какая разница если картинка на взгляд выглядит не хуже? Ну и пусть задники рендерятся в пониженном разрешении — ты же все равно не увидишь детализацию. Кроме того, отдаленные объекты в любом случае использует mip текстуры меньшего разрешения.
105050131@vkontakte
Я за честный рендеринг. Вместо того чтобы увеличивать чистую мощь видеокарт для 4К 60 fps на миддлах в любой игре Nvidia встраивает в видеокарты читы. Соответственно Хуанг идет лесом, Амперы к покупке я не рассматриваю!
Zabr
Какая разница честный рендеринг или нет? Если используемые уловки ухудшают качество картинки — тогда да, это плохо. Но если визуально влияние на картинку незаметно, а прирост производительности большой — почему бы и нет? Ну реально — зачем тратить ресурсы системы на рендеринг деталей, которых игрок не увидит? Масса технологий придумано чтобы этого избежать. Последние придумки MS, такие как Mesh Shaders, VRS, SFS и так далее…
AnotherStranger
«Честного рендеринга» уже давно нет. Ибо рендерить то, чего не видно — не выгодно.
Хотим мы или нет, но будущее за «нечестным рендерингом», потому что разницу зачастую можно заметить только на стопкадрах с увеличением.
Последний раз редактировалось
105050131@vkontakte
Если внимательно рассматривать картинку, то худшее качество видно с DLSS. Видеокарты давно не рендерят невидимые части изображения. По — этому я сторонник честного рендеринга 4К.
Про 4К говорят с 2012 года, если не ошибаюсь, а 4К 60 fps ультра на миддлах и 4К 120 fps ультра на топах в любой игре как не было так и нет. Вместо чистой мощи внедряют всякие читы…
Последний раз редактировалось
105050131@vkontakte
DLSS есть на карте и она активно использует эти блоки. Я уже говорил (или нет?), что в Тьюрингах картинка скейлится в 1080р, потом апскейлится в 4К. В Амперах скейлится в 1440р, потом апскейлится в 4К.
Все что я говорю обсуждалось на оверах в теме Radeon vs GeForce.
Последний раз редактировалось
S
Голосовать за «честный» рендеринг — всё равно, что использовать для изображений только BMP, видео смотреть тоже несжатое, а не с кодеком H.264, музыку — только .WAV, ну и так далее. Сжатие с потерями — часть прогресса, и DLSS — часть этого процесса, в данном случае «потеря» разрешения, с последующим его восстановлением. С каждой версией DLSS всё лучше — даже между 1.9 и 2.0 разница весьма ощутимая. И да, «чистая мощь» увеличена вдвое для FP32, а это уже немало.
Последний раз редактировалось
AnotherStranger
DLSS тоже не панацея.
-Для ее внедрения надо сначала продать душу дьяволу, то есть придти к nvidia с поклоном и согласиться на их условия.
-Работа мощных серверов стоит хороших денег и nvidia, для начала обработки игры на своих серверах, должна видеть в этом прибыль. То есть далеко не все игры будут поддерживать это.
-Любая игра с DLSS фактически становится игрой с обязательным онлайном.
S
Ну, значит ждём развития бесплатного аналога от AMD (Fidelity FX, вроде бы), с последующим повсеместным внедрением. Не в первый раз.
105050131@vkontakte
Только почему то мощь Амперов Хуанг указал в шейдерных терафлопсах (специально придумал эту дичь), а не в обычных. Видимо разница с Тьюрингами по обычным терафлопсам минимальна, раз постеснялся ее указать…
Последний раз редактировалось
m

Ответ 105050131@vkontakte на комментарий
Отличная статья, правда автор забыл упомянуть встроенные в Амперы читы, за счет которых и достигнут основной прирост fps. Перечислю:
1. Динамическое скалирование 2. Шахматный рендеринг


Учитывая, что ничего из этого не гуглится, рискну предположить, что это очередные мифы фанатов фирмы АМД :\.
105050131@vkontakte
Заходишь на сайт Nvidia и смотришь технологии которые используются в ее видеокартах. )
m
Разумеется, ничего подобного там не наблюдается. Ты лучше приведи конкретную цитату именно насчёт «динамического скалирования и шахматного рендеринга».
105050131@vkontakte
Мозги включить не судьба? Все технологии, про которые я говорил, перечислены на сайте Nvidia. Читай!
m

Ответ 105050131@vkontakte на комментарий
Мозги включить не судьба?


Да у меня с мозгами всё нормально — я отлично понимаю, что ты гонишь :D.
87638502@vkontakte
Компания Nvidia как жульничала, так и жульничает.
Фишки хрень, я лучше куплю просто видюху от амд, чем эту вундервалю.
114327661926104889150@google
Начал читать и понял, что автор — мамин аналитик и понятия о том как работает аппаратная часть он не имеет, опирается на субъективный эмпирический опыт.
Автор вещает о нехватке памяти у новых карт, но забывает, что:
а) карты используют более быструю память и архитектуру, чем предыдущее поколение;
б) карты используют в полный рост PCI-E 4-го поколения, что позволяет в разы увеличить обмен данными с системой в целом + никто не отменял поджер буфера из ОЗУ.
в) претензии к ценообразованию и его аргументация тянут на нобелевскую премию в области экономики (сарказм).
Вероятно, автор предполагает, что
технологические прорывы делаются не за счет инвестиций, а на голом энтузиазме.
Упоминание консолей нового поколения — это, в принципе, нонсенс, так как тем кому интересны продукты nVidia, то есть её ЦА, консоли интересны чуть больше чем… никак.
P.S. Я грешным делом подумал, что это отрвжка местного великого прелата культа SONY, но нет. Хотя рука «мастера» чувствуется.
Zabr

Ответ 114327661926104889150@google на комментарий
а) карты используют более быструю память и архитектуру, чем предыдущее поколение;


Я сравниваю не с прошлым поколением видеокарт, а с новым поколением консолей.
На Xbox Series X под игры выделяется до 10 Gb памяти с пропускной способностью 560 Gb/s. На RTX 3070 — 8 Gb с пропускной способностью 448.0 GB/s. То есть 3070 изначально оснащена меньшим объемом памяти на меньшей скорости.
У RTX 3080 да, там 760 Gb/s и более высокая скорость частично компенсирует нехватку памяти.

Ответ 114327661926104889150@google на комментарий
карты используют в полный рост PCI-E 4-го поколения, что позволяет в разы увеличить обмен данными с системой в целом + никто не отменял поджер буфера из ОЗУ.


Карты могут использовать PCI-E четвертого поколения, это важная ремарка. Только вот и новые консоли по полной используют возможности SSD, плюс имеют даже выделенные аппаратные блоки для декомпрессии текстур. И учитывая что игры для консолей глубоко оптимизируются, эффективность использования памяти там будет гораздо выше

Ответ 114327661926104889150@google на комментарий
технологические прорывы делаются не за счет инвестиций, а на голом энтузиазме.


И что? Это значит что можно повышать цены каждое поколение? Очень мило что вы оправдываете многомиллиардную корпорацию, мол как им бедным деньги зарабатывать. Вы знаете какие их внутренние нормы прибыльности? Какова у них отдача на инвестиции? Нет, не знаете. Но почему-то беспокоитесь за них начинаете их защищать, еще и меня лично оскорбляете. Простите если я задел ваши фанатские чувства. Я никак не препятствую вам пойти и немедленно заказать две RTX 3090 только чтобы поддержать любимую компанию.

Ответ 114327661926104889150@google на комментарий
Упоминание консолей нового поколения — это, в принципе, нонсенс, так как тем кому интересны продукты nVidia, то есть её ЦА, консоли интересны чуть больше чем… никак.


Не стоит судить всех по себе.
114327661926104889150@google

Ответ Zabr на комментарий
На Xbox Series X под игры выделяется до 10 Gb памяти с пропускной способностью 560 Gb/s. На RTX 3070 — 8 Gb с пропускной способностью 448.0 GB/s. То есть 3070 изначально оснащена меньшим объемом памяти на меньшей скорости.


Вы испытываете моё терпение, когда демонстрируете свою необразованность, сравнивая графическую подсистему с цельной системой консоли. Идите учите мат часть.

Ответ Zabr на комментарий
Карты могут использовать PCI-E четвертого поколения, это важная ремарка. Только вот и новые консоли по полной используют возможности SSD, плюс имеют даже выделенные аппаратные блоки для декомпрессии текстур. И учитывая что игры для консолей глубоко оптимизируются, эффективность использования памяти там будет гораздо выше


Ну вот, снова вы признаётесь в своей некомпетентности! Причём умудряетесь этим бравировать. Вы даже не понимаете какую ересь несёте?
На ПК SSD на контроллерах от Intel и Phison черз NVMe посредством PCI-E 4.0 уже гоняют на 8 ГБ/с, а если взять наработки Liqid Element LQD4500, то получаем 24 ГБ/с.
Только теперь спустимся на землю и подумаем, зачем консоли юзают такой шустрый SSD? Очевидно, что им не хватает их 10-16Gb, которые расходуются на нужды как чентрального ядра так и видеоядра, поэтому они создают динамический файл подкачки на «божественном» SSD, будем надеятся, что ресурс по циклам записи не даст ему сдохнуть года за 3. Очеь надеюсь что он будет заменяемый.
В свете выше написанного, ваша фраза «эффективность использования памяти там будет гораздо выше» претендует на место в сборнике «Цитаты капитана Очевидность».

Ответ Zabr на комментарий
И что? Это значит что можно повышать цены каждое поколение? Очень мило что вы оправдываете многомиллиардную корпорацию, мол как им бедным деньги зарабатывать. Вы знаете какие их внутренние нормы прибыльности? Какова у них отдача на инвестиции? Нет, не знаете. Но почему-то беспокоитесь за них начинаете их защищать, еще и меня лично оскорбляете. Простите если я задел ваши фанатские чувства. Я никак не препятствую вам пойти и немедленно заказать две RTX 3090 только чтобы поддержать любимую компанию.


Этот коментарий божественнен в свете того, что текущее поколение не подорожало относительно предыдущего. Просто выстрел в воздух.
"… В муку, в муку!"
А как по вашему возвращать инвестиции, которые по сути, являются процентными займами? Спасибками?

Ответ Zabr на комментарий
Не стоит судить всех по себе.


Здесь я с Вами соглашусь. Я всегда считал, что человек, который решается писать статью, должен обладать знаниями и компетенциями на порядок выше среднестатистического обывателя, которым я себя и считаю. Но вы подтвердили в очередной раз народную мудрость:
«Только глупец не сомневается в своей правоте.»
Своим ответом на мой комментарий вы продемонстрировали неспособность к системному мышлению. Вываливая цыфры без сводок, сравнения и анализа вы уподобляете себя не более чем птице, которая повторяет то что где-то слышала, но не совсем понимает в каком контексте это нужно понимать и использовать.
Сделайте одолжение, не пишите больше аналитические статьи. Пишите романы. Я уверен, что в художественной литературе у Вас получится лучше.
Zabr

Ответ 114327661926104889150@google на комментарий
Вы испытываете моё терпение, когда демонстрируете свою необразованность, сравнивая графическую подсистему с цельной системой консоли. Идите учите мат часть.

О великий и мудрый гуру, проявите еще немного терпения и расскажите нам глупым, почему неверно сравнивать пропускную способность видеопамяти на видеокарте с пропускной способностью памяти на консоли, которая будет использоваться GPU консоли как видеопамять?

Ответ 114327661926104889150@google на комментарий
На ПК SSD на контроллерах от Intel и Phison черз NVMe посредством PCI-E 4.0 уже гоняют на 8 ГБ/с, а если взять наработки Liqid Element LQD4500, то получаем 24 ГБ/с.

Есть один известный канал в Youtube, Linus Tech Tips, автор которого рассказывал именно про это и смеялся над консолями, а потом публично признавался в собственной безграмотности и извинялся перед аудиторией, просвещайтесь:
https://youtu.be/4ehDRCE1Z38

Ответ 114327661926104889150@google на комментарий
А как по вашему возвращать инвестиции, которые по сути, являются процентными займами? Спасибками?

А почему вас, потребителя, волнует этот вопрос? Почему вас так волнует как Nvidia будет отбивать инвестиции? Вы не сотрудник компании Nvidia, не акционер, вы просто потенциальный потребитель ее продукции. Ваша цель — получить нужный вам товар по устраивающей вас цене. И если производитель вдруг взвинчивает цену — это он должен потрудиться объяснить вам почему это оправданно и почему эта покупка для вас выгодна. Зачем вы облегчаете ему эту задачу придумывая себе объяснения?
Меня удивляют фанаты конкретных корпораций, которые переживают не за свой карман и не свое потребление, а за любимую корпорацию.

Ответ 114327661926104889150@google на комментарий
Своим ответом на мой комментарий вы продемонстрировали неспособность к системному мышлению.

Вы очень много говорите о моей персоне и очень мало о том, что я написал. Если вы действительно так компетентны в обсуждаемом вопросе, я буду рад если вы предметно напишете в чем конкретно я не прав и как дела обстоят на самом деле. Пока что у вас это плохо получается — вы не сообщили ничего конкретного и никак не проявили ту компетентность, которой по вашему мнению вы обладаете. И я не иронизирую — я всегда рад узнать новое и буду благодарен за аргументированные возражения. Уверен и другие читатели будут благодарны. Ключевое слово — аргументированные. Не нужно отсылать меня читать матчасть, этим вы никак не демонстрируете свою компетентность ни мне, ни другим читателям.
114327661926104889150@google

Ответ Zabr на комментарий
Ответ 114327661926104889150@google на комментарийВы испытываете моё терпение, когда демонстрируете свою необразованность, сравнивая графическую подсистему с цельной системой консоли. Идите учите мат часть.О великий и мудрый гуру, проявите еще немного терпения и расскажите нам глупым, почему неверно сравнивать пропускную способность видеопамяти на видеокарте с пропускной способностью памяти на консоли, которая будет использоваться GPU консоли как видеопамять? Ответ 114327661926104889150@google на комментарийНа ПК SSD на контроллерах от Intel и Phison черз NVMe посредством PCI-E 4.0 уже гоняют на 8 ГБ/с, а если взять наработки Liqid Element LQD4500, то получаем 24 ГБ/с.Есть один известный канал в Youtube, Linus Tech Tips, автор которого рассказывал именно про это и смеялся над консолями, а потом публично признавался в собственной безграмотности и извинялся перед аудиторией, просвещайтесь:
https://youtu.be/4ehDRCE1Z38 Ответ 114327661926104889150@google на комментарийА как по вашему возвращать инвестиции, которые по сути, являются процентными займами? Спасибками? А почему вас, потребителя, волнует этот вопрос? Почему вас так волнует как Nvidia будет отбивать инвестиции? Вы не сотрудник компании Nvidia, не акционер, вы просто потенциальный потребитель ее продукции. Ваша цель — получить нужный вам товар по устраивающей вас цене. И если производитель вдруг взвинчивает цену — это он должен потрудиться объяснить вам почему это оправданно и почему эта покупка для вас выгодна. Зачем вы облегчаете ему эту задачу придумывая себе объяснения?
Меня удивляют фанаты конкретных корпораций, которые переживают не за свой карман и не свое потребление, а за любимую корпорацию. Ответ 114327661926104889150@google на комментарийСвоим ответом на мой комментарий вы продемонстрировали неспособность к системному мышлению.Вы очень много говорите о моей персоне и очень мало о том, что я написал. Если вы действительно так компетентны в обсуждаемом вопросе, я буду рад если вы предметно напишете в чем конкретно я не прав и как дела обстоят на самом деле. Пока что у вас это плохо получается — вы не сообщили ничего конкретного и никак не проявили ту компетентность, которой по вашему мнению вы обладаете. И я не иронизирую — я всегда рад узнать новое и буду благодарен за аргументированные возражения. Уверен и другие читатели будут благодарны. Ключевое слово — аргументированные. Не нужно отсылать меня читать матчасть, этим вы никак не демонстрируете свою компетентность ни мне, ни другим читателям.


Вы очень много говорите о вырванных из контекста понятиях, поэтому советую просвещаться именно вам о том как структурировать информацию и делать выводы, о том что можно сравнивать, а что сравнивать бессмысленно. Касательно того что говорил Линус, то я уже давно это съел и… и переварил. Ещё раз напомню, что функции SSD на ПК и на консолях нового поколения, хоть и имеют подобное назначение, но акценты на их использование расставлены по разному…
Впрочем не буду тратить на вас время, поднимая рейтинг вашей недопубликации, так как вы не обучаемы. С таким же успехом я могу обьяснять дальтонику какого цвета красный цвет.
Я уже написал вам в чём конкретно вы не правы, но вы видимо писатель, а не читатель. Хотя и писатель вы — так себе.
Последний раз редактировалось
Zabr
Вы уже потратили на меня время и потратили совершенно впустую. Вместо того чтобы один раз аргументированно изложить свои контрдоводы, вы переливаете из пустого в порожнее, пытаясь меня задеть и оскорбить. Уж не знаю зачем вы это делаете и какой вам с того прок.
105050131@vkontakte
Выше я перечислил читы, которые использует Nvidia в Амперах. К этому добавь нехватку памяти (многие игры потребляют 10 и больше Гб видеопамяти в 4К), чтобы поставить крест на Амперах.
114327661926104889150@google

Ответ 105050131@vkontakte на комментарий
Выше я перечислил читы, которые использует Nvidia в Амперах. К этому добавь нехватку памяти (многие игры потребляют 10 и больше Гб видеопамяти в 4К), чтобы поставить крест на Амперах.


Касательно объёма памяти, повторюсь:
«а) карты используют более быструю память и архитектуру, чем предыдущее поколение;
б) карты используют в полный рост PCI-E 4-го поколения, что позволяет в разы увеличить обмен данными с системой в целом + никто не отменял поджер буфера из ОЗУ.»
В качестве примера посмотрите на фокус, когда nVidia выкинула на рынок GeForce GTX 1060 GDDR5X, в ответ на RX590. Нельзя сказать, что положительного результата не было.
И я не оспариваю «читы», потому что это технологии и они несут положительный результат. Тут как говорится, вам «шашечки» или ехать. И ехать они предлагают быстрее и за те же деньги. А то что прирост есть и памяти хватает — это факт.
AnotherStranger
Рост пропускной способности в PCIe4 «всего лишь» двукратный по сравнению с предыдущей реализацией.
Текущий PCIe3 на 16 линиях способен передавать до 15Гб/с — Какие SSD могут сейчас такое выдать? А если представить их цену? — это касательно RTX IO.
Если рассматривать вопрос общения видеокарты с памятью, то пока PCIe3x16 вполне хватает, даже на PCIe3x8 зачастую разницу сложно заметить.
Прирост, конечно, будет от PCI4, но далеко не такой заметный и не во всех задачах.
114327661926104889150@google

Ответ AnotherStranger на комментарий
Рост пропускной способности в PCIe4 «всего лишь» двукратный по сравнению с предыдущей реализацией.
Текущий PCIe3 на 16 линиях способен передавать до 15Гб/с — Какие SSD могут сейчас такое выдать? А если представить их цену? — это касательно RTX IO.


Именно, двукратный.
Потребительский сегмент скоро будет заполнен SSD на основе Phison PS5016-E16 и его модах.
Наработки Liqid Element LQD4500 обещают нам светлое будущее =)))
А если серьзно, то не стоит забывать, почему производитель консолей так вложились в шину SSD — файл подкачки из-за нехватки дорогущей памяти, которая одна на все нужды.
На ПК нет острой необходимости в таких финтах из-за особенностей архитектуры, но они уже там, за углом…
AnotherStranger
Ох, меня терзают смутные сомнения, что это светлое будущее будет стоить как средне-бюджетная видеокарта, как минимум в первые годы. А значит массовому игроку такие решения будут недоступны, и разработчики не будут этим заниматься без спонсорства со стороны заинтересованных компаний. Хотя и перспективы у технологии есть.
А со стороны консолепроизводителей это вполне адекватное и разумное решение, тем более если они ожидают дальнейшее снижение цен накопителей.
114327661926104889150@google

Ответ AnotherStranger на комментарий
Ох, меня терзают смутные сомнения, что это светлое будущее будет стоить как средне-бюджетная видеокарта, как минимум в первые годы. А значит массовому игроку такие решения будут недоступны, и разработчики не будут этим заниматься без спонсорства со стороны заинтересованных компаний. Хотя и перспективы у технологии есть.
А со стороны консолепроизводителей это вполне адекватное и разумное решение, тем более если они ожидают дальнейшее снижение цен накопителей.


Пока у нас разработка ориентируется на консоли, то и смысла в этом светлом будущем — кгбэ нет.
Zabr
Именно что особенностей универсальной архитектуры, при которых для выполнения тех же игровых задач нужно в разы больше памяти и процессорных ресурсов. Именно поэтому чтобы играть на ПК нужно выложить за систему в разы больше денег чем за консоль.
Во-вторых, в силу зоопарка конфигураций на ПК подобные технологии будут там задействованы намного позднее, так что счастливые обладатели Liqid Element LQD4500 еще долго не смогут насладиться потенциалом подобного решения.
Даже сейчас наличие NVME SSD в ПК в играх не дает серьезных преимуществ по сравнению с SATA SSD, разница во времени загрузки это буквально секунды. Сколько лет уже ПК геймеры имеют возможность поставить в свой ПК скоростной NVME SSD?
114327661926104889150@google

Ответ Zabr на комментарий
Именно что особенностей универсальной архитектуры, при которых для выполнения тех же игровых задач нужно в разы больше памяти и процессорных ресурсов. Именно поэтому чтобы играть на ПК нужно выложить за систему в разы больше денег чем за консоль.
Во-вторых, в силу зоопарка конфигураций на ПК подобные технологии будут там задействованы намного позднее, так что счастливые обладатели Liqid Element LQD4500 еще долго не смогут насладиться потенциалом подобного решения.
Даже сейчас наличие NVME SSD в ПК в играх не дает серьезных преимуществ по сравнению с SATA SSD, разница во времени загрузки это буквально секунды. Сколько лет уже ПК геймеры имеют возможность поставить в свой ПК скоростной NVME SSD?


1) За систему с производительностью консоли — не так уж и много денег выложит потребитель.
К тому же не стоит сравнивать острое с белым, то есть ПК с консолями, потомучто ПК — это многофункциональная платформа ориентированая прежде всего на работу, а консоль — игрушка.
При этом, консоль нового поколения не достреливает по видимой производительности до среднего ПК. Я ж не спорю, что на консолях выжимают из железа максимум, но реч то шла о производительности видеоподсистемы на ПК.
2) А зачем оно сейчас на ПК? Для чего? Чтобы унижать владельцев консолей самим фактом существования их на ПК? И я не говорю о близости Liqid Element LQD4500 на ПК в ближайшее время, но говорю о накопителях на Phison PS5016-E16.
3)Касательно NVME SSD балуюсь более 3 лет, при том, что они на рынке уже давненько.
А на скорость загрузки в консолях нового поколения мы ещё посмотрим =)
105050131@vkontakte
Я уже приводил пример Wolfenstein: Yangblood. Ты даже не сможешь запустить ее на ультра настройках в 4К. Одни только ультра текстуры занимают 8 Гб видеопамяти. Остальные настройки графики еще забирают свыше 5 Гб видеопамяти. Т.е. тупо нужен объем видеопамяти больше 13 Гб. У 3080 нужного объема памяти нет, какую бы быструю память она не имела. В Resident Evil 2 remake потребление памяти на ультра в 4К тоже больше 13 Гб. Это уже сегодня, здесь и сейчас. Никакого запаса памяти на будущее у 3080 нет!
AnotherStranger
А как же https://www.youtube.com/watch?v=rvx8DDd1ETw (эта *субъективно* дрянь, а не игра — 4к, ultra, GTX 1070 )? или https://www.techpowerup.com/review/wolfenstein-youngblood-benchmark-test-performance/4.html
Все врут?
m
Почему все? Фанаты AMD.
AnotherStranger
Точно "… верить в наше время нельзя никому, порой даже самому себе. Мне можно."
114327661926104889150@google

Ответ AnotherStranger на комментарий
А как же https://www.youtube.com/watch?v=rvx8DDd1ETw (эта *субъективно* дрянь, а не игра — 4к, ultra, GTX 1070 )? или https://www.techpowerup.com/review/wolfenstein-youngblood-benchmark-test-performance/4.html
Все врут?


Просто у него ОЗУ меньше 32Gb и нет SSD =)))))))))))
105050131@vkontakte
Зайди в игру и попробуй поставить те настройки про которые я говорил. Если все ультра и текстуры 8 Гб (максимальные), то поиграть в таком режиме ты сможешь только на Radeon VII (16 Гб) или RTX Titan (24 Гб).
114327661926104889150@google
И да, с покупкой новых карт, на просторах СНГ, никто спешить не сможет, так как:
1. У нас они появятся месяца на 1,5-2 позже из за завалов 20-го поколения на складах и отсутствия значимого снижения цен на него.
2. Цены, вероятнее всего, первые месяцев 6, будут задраны процентов на 30.
Таким образом, к анонсу новых карт от АМД они только придут к адекватному значению.
В остальном, я соглашусь с автором, там вполне очевидные вещи написаны.
R
RTX 2080 превратился в тыкву так и не реализовав потенциала. Через год хуанг, для того чтоб срубить легкого бабла, представит RTX 3080TI Super Amoled The President of America Edition. А еще через год выйдет уже новая RTX 40xx серия, и вся 3000 серия превратится в тыкву, так и не реализовав даже четверти потенциала, который в ней заложен. И что самое замечательное во всем этом железном зоопарке ПК-гейминга, графика в играх лучше уже не станет, ибо даже нынешний уровень графики это сильно дорого, поэтому новые жирафы еще не вышли, а уже не нужны.
AnotherStranger
Текущая плойка показывает сносную графику на видеосистеме уровня HD 7850, так что можно сказать что потанцевал даже GTX 1060 еще не реализовали в полной мере.
А если серьезно, да, таково состояние рынка на сейчас. К тому же, ожидается еще больше игр-сервисов, со всеми их бонусами.
R
ну играть в 30 фпс такое себе удовольствие
114327661926104889150@google

Ответ R7MZES на комментарий
ну играть в 30 фпс такое себе удовольствие


Для настоящих эстетов! =)
R
для того и нужны топ карты, чтоб играть 100+ фпс на 4К 27" без сглаживания, осталось дождаться мониторы 4к 144 по цене 2к
AnotherStranger
30fps на аналоге карты 2012года, прошу заметить.
И нет, за этой маркетинговой шелупонью не гонюсь, FHD-2К@60 вполне комфортно мне. Тем более Хуанг уже сказал, что 144Hz для нищебродов, только 360Hz у настоящих парней.
Zabr
Согласен, консоли тем и хороши что на них потенциал железа раскрывается максимально.
114327661926104889150@google

Ответ Zabr на комментарий
Согласен, консоли тем и хороши что на них потенциал железа раскрывается максимально.


"-А что вы делаете с тем что остаётся?
-Доедаем, ещё и не хватает!"
То есть раскрывается максимально, но выглядит это всё средненько.
А
У большинства россиян мониторы и ТВ имеют разрешения 1080р, либо 1440р, а в этих разрешениях 10 ГБ хватит за глаза. А сейчас, пока можно будет выкрутить настройки до 4К, которое весьма заметно улучшит картинку даже на 1080р мониторах и ТВ. 3080 в 2 раза быстрее, чем 2080 и, как минимум, в полтора раза быстрее 2080 Ti.
В общем, АМДшникам стоит подождать Нави 2, а владельцам Паскалей и ниже я бы посоветовал продавать свои карты и покупать GeForce RTX 3080, если, конечно, накопили средства.
Там ещё оперативная память ДДР5 появится, плюс PCI-E 5/6.0. Пока они станут доступными, Вы уже сможете наслаждаться хорошими играми с ультра настройками.
Я сам продаю 1070 Ti от ASUS и покупаю (если завезут) ASUS TUF GAMING GeForce RTX 3080.
Вряд ли GDRR6X подешевеет в ближайшее время. Так что 3080 с 20 ГБ будет стоить немногим меньше, чем 3090.
R
Очнись, большинство россиян сейчас 1060 или 1660 могут взять только в кредит, о массовых продажах 3000 серии в россии не может быть и речи.
А

Ответ Ratilik на комментарий
Очнись, большинство россиян сейчас 1060 или 1660 могут взять только в кредит, о массовых продажах 3000 серии в россии не может быть и речи.


Большинству россиян хватает смартфонов и планшетов, им даже компьютер не нужен. Так что давай не будем о большинстве. Те, кому нужно, деньги найдут.
R
Стесняюсь спросить — нужно что? Я могу деньги найти на 3070, только что мне от нее нужно? Ответ очень простой — ничего мне от этой видеокарты не нужно, все игры в 1080р спокойно тянет 1060 за 240$, смысла платить в СНГ 650$ за RTX 3070 не вижу никакого.
Zabr
Ну, у людей разные запросы. Кому-то за глаза 1080р/60fps на высоких настройках, а кому-то надо 1440р/144fps. Или 4К/60fps на максималках.
105050131@vkontakte
Я играю в 4К 60 fps на смешанных ультра — высоких настройках на 4К 144 Гц IPS мониторе. ААА проекты — 60 fps, которые менее требовательны к графике — 120 fps 120 Гц выставляю.
Шикарный гейминг, на 1080p никогда не вернусь!
Последний раз редактировалось
AnotherStranger
Пока все же посижу на Паскале как минимум еще год до анонса карт на RDNA2, недостатка в мощности не испытываю пока. Прошлое новое поколение релизнулось как раз через год после консолей. Только если вдруг сдуру решу на 4К переходить — буду думать о замене.
114327661926104889150@google

Ответ AnotherStranger на комментарий
Пока все же посижу на Паскале как минимум еще год до анонса карт на RDNA2, недостатка в мощности не испытываю пока. Прошлое новое поколение релизнулось как раз через год после консолей. Только если вдруг сдуру решу на 4К переходить — буду думать о замене.


Как минимум — мудро.
Zabr

Ответ 7155124@vkontakte на комментарий
Вряд ли GDRR6X подешевеет в ближайшее время. Так что 3080 с 20 ГБ будет стоить немногим меньше, чем 3090.


Стало интересно, загуглил. И вот что нашел:
Currently, Micron's GDDR6X is available in 8Gb (1GB) capacities and speeds from 19 to 21Gbps, but 16Gb (2GB) chips will be coming in 2021.
В общем пока что у Micron есть только гигабайтные чипы, так что сделать 20 гигов на GDDR6X в этом году скорее всего у Nvidia не получится, двухгигабайтные чипы обещают только в 2021 году. Вот и объяснение почему зажали память...
На RTX 3090 разместили аш 24 одногигабайтных чипа, по 12 с каждой стороны:)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-pcb-pictured
Последний раз редактировалось
А

Ответ Zabr на комментарий
Ответ 7155124@vkontakte на комментарийВряд ли GDRR6X подешевеет в ближайшее время. Так что 3080 с 20 ГБ будет стоить немногим меньше, чем 3090.
Стало интересно, загуглил. И вот что нашел:
Currently, Micron's GDDR6X is available in 8Gb (1GB) capacities and speeds from 19 to 21Gbps, but 16Gb (2GB) chips will be coming in 2021.
В общем пока что у Micron есть только гигабайтные чипы, так что сделать 20 гигов на GDDR6X в этом году скорее всего у Nvidia не получится, двухгигабайтные чипы обещают только в 2021 году. Вот и объяснение почему зажали память...
На RTX 3090 разместили аш 24 одногигабайтных чипа, по 12 с каждой стороны:)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-pcb-picturedПоследний раз редактировалось 7 сентября 2020, 12:12


Ну, дешевле-то память не станет. Тут ДДР4 быстрая бешеных денег стоит…
Zabr
Это точно. Правда есть слух что могут сделать версию RTX 3080 как и 3090 c 20-ю чипами с двух сторон… но это точно будет существенно дороже.
105050131@vkontakte
Цитата: «А сейчас, пока можно будет выкрутить настройки до 4К, которое весьма заметно улучшит картинку даже на 1080р мониторах и ТВ».
Пишешь чушь! Например в Wolfenstein: Yangblood уже сейчас нельзя поиграть на 3080 в 4К: только тектуры на максималках забирают 8 Гб видеопамяти…
m

Ответ 105050131@vkontakte на комментарий
Пишешь чушь! Например в Wolfenstein: Yangblood уже сейчас нельзя поиграть на 3080 в 4К


Можно. Это даже в 30 Series Community Q&A есть. А ты, соответственно, пишешь чушь.
105050131@vkontakte
Покажешь на видео графические настройки в этой игре все Ультра и текстуры 8 Гб?
m
Ты заявил, что играть нельзя, — ты и показывай.
R
как уже достали адепты видеопамяти
T
Хотите сказать 1гб хватит?
AnotherStranger
640 Кб вполне достаточно для любых задач, как говорил один представитель софтверного гиганта.
114327661926104889150@google

Ответ AnotherStranger на комментарий
640 Кб вполне достаточно для любых задач, как говорил один представитель софтверного гиганта.


256 Кб — он говорил, не богохульствуй! =)
105050131@vkontakte
Все претензии к Хуангу. Мне 16 Гб Radeon VII + HBCC везде хватает. Играю в 4К.
Zabr
del
Последний раз редактировалось
А

Ответ Zabr на комментарий
delПоследний раз редактировалось 7 сентября 2020, 10:50


Самокритично!
C
Один момент:
идея нвидия о 4к гейминге состоит в использовании DLSS2+ и апскейле 1080p изображения в 2 раза по обеим осям. Таким образом с точки зрения деталей Fullhd-картинка будет узким местом, больше деталей, чем она способна вместить, не нужно, соответственно не будет причин повышать детализацию выше чем при традиционном рендеринге в 1080p. Понятно, что DLSS тоже потребует памяти. После постобработки должен получиться 4к растр, ну это будет 32 мегабайта. И ещё 32 мегабайта на предыдущий кадр, 64 в сумме. Ну ещё для целей предсказаний пусть будет история из ещё 8 сырых кадров в 1080p, ещё 64, итого 128. Ну пусть сырые кадры ещё и с сохранением 32битного Z-буфера, тогда 192 мегабайта. При таком подходе 4k методом dlss съест максимум на полгига больше чем «честный» fullhd.
Zabr
При таком раскладе тогда непонятно зачем нужно 4К, если оно не дает увеличения детализации. Ведь основная прелесть более высокого разрешения это именно более высокая детализация. Я еще пойму апскейл с 1440р или 1800р, но увеличивать разрешение в четыре раза… без добавления деталей, ну хз…
C
Ну… человеческое зрение в общем-то очень паршивое. Нормальное разрешение только по центру, если б игра могла отслеживать куда взгляд направлен, могли бы потребность в вычислениях в десятки раз сократить. Так что дальше определённого уровня повышать детализацию бессмысленно, не в коня корм. Да и мозг толком даже телевизионную SD-картинку воспринять не способен. В повышении детализации картинки как в способе отобразить больше информации смысла уже давно нет, однако если человек пырится в одну точку он ещё способен заметить артефакты, особенно если знает что искать. Вот, ради борьбы с этим и повышают, со стороны дисплея увеличивают разрешение, а со стороны рендеринга тут либо честно считать 4, 8, 16k картинку, либо просто как-то маскировать артефакты. Вот, DLSS оно как бы это и пытается сделать.
AnotherStranger
Не совсем верная логика. Про математические выкладки умолчу. На серверах nvidia сначала происходит обучение нейронной сети на ресурсах игры, так сказать в максимальном качестве. Потом уже, при работе этой сети на компьютере игрока, она немного уже знает как должно выглядеть конечное изображение и достраивает его исходя из имеющихся данных. Практически уверен, что в той или иной мере «4к текстуры» используются при расчете конечного изображения на компьютере игрока. Оттого и получается такое приличное качество.
C
Так на серверах пусть и кладут много памяти, и 4к текстуры в неё грузят. На компьютере пользователя, если рендеринг идёт в фуллхд с последующей растяжкой, растеризовать несколько текселей в 1 пиксел смысла нет, соответственно и текстура нужна максимум до уровня фуллэйчди.
Zabr

Ответ AnotherStranger на комментарий
На серверах nvidia сначала происходит обучение нейронной сети на ресурсах игры, так сказать в максимальном качестве.

Насколько я понял из описания на сайте Nvidia, такой алгоритм работал с первой версией DLSS, где сетка обучалась на каждой конкретной игре. DLSS 2.0 уже использует общую сеть, которая обучается отдельно в оффлайн на 16К видеоряде с низкой частотой обновления. И она достраивает кадр путем его сравнения с предыдущими кадрами в высоком разрешении, которые она уже построила.
https://www.nvidia.com/ru-ru/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Н
у них 10 гб видео быстрее работаю на 35% чум у консолей нового поколения
это разве не равняется большему числу памяти?
AnotherStranger
нет,
Ответ 74470906@vkontakte на комментарий
не равняется

Последний раз редактировалось
Н
А как же тесты видеокарт 4 гб gtx 1650 super vs 6 гб gtx 1060
4 гб gtx 1650 super работает на 10% быстрее чем карточка с 6 гб
там скорость видео с 4 гб быстрее, она и не тормозит и не захлебывается как другие карты с 4гб, но меньшой скорость.
и все игры где требуется, съедается до 6-11 гб видео она тащит без тормозов
а тесты, где в биосе ограничивают видео память карты с 8 до 4 гб и разница, минус 2 или 4 фпс
раньше каты с 1 гб работали лучше чем с 3 гб
но я конечно подожду ноября и куплю не реф с большей память. если таковы будут
опять же через 3 года все равно покупать новую видюху, так что непонятно все
Последний раз редактировалось
AnotherStranger
1 Оперативная память сглаживает нехватку видеопамяти, так что при небольшом дефиците побеждает в соревновании та видеокарта, которая тупо быстрее и для которой лучше сделаны драйвера. nvidia, как правило, сразу забивает на оптимизацию старых карточек, как только выходят новые — только бизнес.
2 Игра может съедать память «про запас» если позволяют условия, так что сколько забито видеопамяти не означает что именно столько сейчас используется.
3 1060-6 должна быть быстрее 1650, если правильно помню их спецификации.
114327661926104889150@google

Ответ AnotherStranger на комментарий
1 Оперативная память сглаживает нехватку видеопамяти, так что при небольшом дефиците побеждает в соревновании та видеокарта, которая тупо быстрее и для которой лучше сделаны драйвера. nvidia, как правило, сразу забивает на оптимизацию старых карточек, как только выходят новые — только бизнес.
2 Игра может съедать память «про запас» если позволяют условия, так что сколько забито видеопамяти не означает что именно столько сейчас используется.
3 1060-6 должна быть быстрее 1650, если правильно помню их спецификации.


Не совсем верно. Если память достаточно быстро передает данные, то её нет смысла иметь много. Память — это всего лишь буфер, зачем его много если он быстро опустошается?
AnotherStranger

Ответ 114327661926104889150@google на комментарий
Не совсем верно. Если память достаточно быстро передает данные, то её нет смысла иметь много. Память — это всего лишь буфер, зачем его много если он быстро опустошается?


Белиберда какая-то написана без точных определений и четкой логики.
Но попробую все же ответить что-то умное даже: Оперативная память, видеопамять, «жесткая» память могут выполнять функцию буфера, но это не прямое и единственное предназначение. Памяти(да, в ее общем понимании) всегда должно быть столько, и не байтом меньше, сколько требуется приложению для работы, и очень желательно для максимального быстродействия чтобы время доступа к ней со стороны вычислительного устройства было сравнимым со скоростью вычислений. Так что скорость памяти может быть очень быстрой, а скорость обработки очень медленной, и приложение будет работать, но если ее не хватает — приложение работать не будет.
Память, в широком смысле — это не буффер, это место хранения *обрабатываемой* информации.
Последний раз редактировалось
114327661926104889150@google

Ответ 74470906@vkontakte на комментарий
А как же тесты видеокарт 4 гб gtx 1650 super vs 6 гб gtx 1060
4 гб gtx 1650 super работает на 10% быстрее чем карточка с 6 гб
там скорость видео с 4 гб быстрее, она и не тормозит и не захлебывается как другие карты с 4гб, но меньшой скорость.
и все игры где требуется, съедается до 6-11 гб видео она тащит без тормозов
а тесты, где в биосе ограничивают видео память карты с 8 до 4 гб и разница, минус 2 или 4 фпс
раньше каты с 1 гб работали лучше чем с 3 гб
но я конечно подожду ноября и куплю не реф с большей память. если таковы будут
опять же через 3 года все равно покупать новую видюху, так что непонятно всеПоследний раз редактировалось 7 сентября 2020, 21:30


Тоже не совсем корректно, ниже обратили внимание на буферизацию в ОЗУ.
A
Во-вторых, если вы в восторге от DLSS, вам стоит знать о том, что AMD предлагает свою альтернативу, которая может даже превосходить DLSS в отдельных аспектах. В частности, на примере игры Death Stranding в статье по ссылке сделан вывод, что технология от AMD под названием FidelityFX Contrast Adaptive Sharpening обеспечивает немного лучшее качество картинки и производительность, нежели DLSS 2.0 в режиме «качество».

В той же статье сказано что нативный 4к, лучше чем FidelityFX
if you're a proud owner of an Nvidia RTX 2080 Ti, you can rest assured that your GPU can push this game at a native 4K resolution, with all graphical settings up to max, and cruise at a nearly locked 60fps.
Но на недавней презентации https://vk.com/video-90634038_456243343?t=28m0s DLSS 4k чётче, чем нативные 4к
+ был прецедент, что нейросеть не сразу обучается, в том же bf5 был очень мыльный DLSS настолько, что было проще понизить разрешение, получить тот же прирост фпс, но с более четкой картинкой, затем это пофиксили. Где правда?))
***
RTX 3080 это 28 млрд транзисторов на 627 мм2 площади, RX 5700 XT это 10,3 млрд транзисторов на 251 мм2 площади. То есть даже удвоенный чип AMD все еще может оставаться меньше по размеру чем RTX 3080, давая возможность дальнейшего увеличения.

Клевое сравнение, а давно в RDNA RT c тензорными ядрами добавили, чтобы так техпроцессы с площадью сравнивать? Другими словами- буду только рад, если AMD сможет осилить планку 3070Ti, а не упрется снова предложив аналог дешевле на 100$ и слабее.
Zabr
Нативные 4К в теории должны быть всегда лучше чем любого рода реконструкция из меньшего разрешения. Но тут есть нюанс — сетка вроде как обучается на 16К картинках, поэтому вполне вероятно что строя 4К картинку из 1080р DLSS может достраивать ее деталями на основании своего обучения и там даже может быть более четкая и детальная картинка чем в нативном 4К, но это будет не совсем уже та картинка, которую рисовал разработчик. Причем как лучше, так и хуже. Например, в случае с Death Stranding алгоритм потерял детали картинки про которые он не мог знать, но которые были важны с точки зрения разработчика. А может быть и наоборот — что DLSS добавляет какие-то детали, которых не было в изначальной картинке.
По моему мнению нативные 4К показывают тебе ту картинку, которую хочет показать разработчик. DLSS уже ее немного меняет и независимо от того в лучшую или худшую сторону, это уже чуть другая картинка. Поэтому в моем понимании нативные 4К всегда лучше любой реконструкции, если твое железо их тянет. А если нет — нужно выбирать такой алгоритм реконструкции, который обеспечивает нужную производительность, минимально меняя исходную картинку, задуманную автором.
Про тензорные ядра — я понимаю что они занимают место на чипе, я лишь хотел сказать что GA102 огромный чип и AMD имеют большой запас по увеличению размера своих чипов до этой же величины. Со своими особенностям — например они вместо тензорных ядер разместят обычные, получив дополнительные преимущества в одних задачах и проигрывая в других. Какой подход окажется выгоднее покупателю — не знаю, посмотрим.
AnotherStranger
Нативные 4К, конечно, круче всего. Но все же не согласен, что DLSS настолько изменяет конечную картинку, что изменяется задумка разработчика. Слишком мелкие для этого объекты должны быть, тем более в 4К в движении они вообще должны чуть ли не игнорироваться мозгом на фоне общей картины или казаться просто частицами.
A

Ответ Zabr на комментарий
AMD имеют большой запас по увеличению размера своих чипов до этой же величины.


Флагман 5700xt 7нм 251 mm² 10,300 млн транзисторов TDP 225 W на 100 дешевле, на 10% слабее, без RT
Народный фаворит RTX 2070S 12 nm 545 mm² 13,600 млн транзисторов при TDP 215 W.
Так какой говоришь у них запас при увлечении колва транзисторов если у них при 2ух меньшем техпроцессе такое же тепловыделение)) Забыл добавить «буду только рад, если AMD сможет осилить планку 3070Ti» без водянки. Vega 64 Liquid Cooled передает привет.
Zabr
Ну, Лиза хвасталась о 50-процентом росте энергоэффективности, поглядим)
113274527774107007160@google
первые видеокарты 3000-й серии будут с памятью GDDR6 без x, так что спешить покупать однозначно не стоит
Ю
Через пару лет, через пару лет, через пару лет уже будет 4080 с 20 гигами, а так эти пары лет хватит и 3080 с 10-ю

Добавить комментарий