Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Оптимизация — это не когда DLSS дает 100% прироста. Оптимизация — это когда DOOM идет на 60 FPS на GTX 960, и никакого DLSS при этом не требуется. Вот что такое — оптимизация!
А если бы тензорных ядер не было бы у nVidia, то глядишь и без DLSS все бы быстро шло. При этом — все кадры были бы честные, а значит — без проблем, связанных с DLSS.
Ну так приходится отвечать, что же делать?
А не полез бы куртка со своими тензорными ядрами, разработанных для серверов в игровые ПК, выпустил бы нормальный RTX 2xxx в 2019-м, где было бы больше ядер CUDA, да пусть и RT, дабы оно быстро само собой работало, без костылей с «придумыванием» информации — и был бы сейчас FPS выше, чем раньше, со 100% гарантированной и предсказуемой картинкой на мониторе в придачу.
Т.е. если бы в платах nVidia не стали добавлять тензорные ядра с сопутствующей логикой, а вместо них накинули бы привычных ядер CUDA, занявших ту же площадь кристалла, то оно работало бы медленнее? ;)
Так что да, еще раз повторю — отнимает производительность.
>>По маятнику. DLSS 3 должен разрулить. Для того и нужны векторы движения.
___
Это поможет, если есть данные хотя бы о нескольких десятках предыдущих кадров на весь цикл движения маятника. А если только несколько соседних, то вероятно будет чудить. Ну вот идут у нас соседние кадры движения слева-направо, и сверху-вниз. Движение с ускорением. Тут вектор конечно поможет. Но как он поможет предсказать, что после нижней точки оно пойдет уже по-прежнему слева-направо, но уже снизу-вверх? И при этом — еще и с замедлением, т.е. каждый новый кадр теперь нужно рисовать на меньшее смещение, чем когда маятник шел с ускорением вниз?
Не копирует, а заимствует. :)
И правильно делает. А то как Вулкан использовать, или там фрисинк — то Курта быстренько подсуетился. А как лицензировать физику, или там CUDA — так оно наше собственность!
Не спорте, оба правы.
Другое дело, что у nVidia нет встроек, а у Intel есть своя технология, т.е. пилить игру под именно что «встройки AMD» мало кто будет.
Смотрим на маятник часов, он идет слева-направо, и одновременно сверху-вниз. Доходит до самой нижней точки, дальше продолжает идти слева-направо, но уже вверх. Мне например не очень очевидно, что DLSS-3 сможет это дело правильно разрулить. Дальше хуже, достигнув крайней правой точки, он пойдет назад, вниз. DLSS-3 похоже же начнет же генерировать еще более «правую» и еще более «верхнюю» его позицию, ибо — ну а как иначе?
А что FSR-3? А он сделает похоже то же самое, но еще и за счет интерполяции накинет мыла! Так себе варианты, оба! У AMD понятно тут хуже, но толку от того, что у nVidia оно без мыла, если положение объекта нарисовано против закона физики?
TR берут по разным причинам. В первом поколении например там были конечно восьмиядерники, как и 1800X (вроде бы 1900X называлось), но было их немного. А основные были 12 и 16 ядерные. Все то же самое и потом… Не очень есть много задач, где позарез нужно 60 линий, или четыре канала памяти. Особенно сейчас, когда из-за перехода на DDR5 два новых канала памяти дают практически ту же линейную скорость, что и четыре старых. Но TR'ы таки покупают, значит кому-то все же мало 16 ядер в рамках «домашних» AM4/5.
Ryzen 5950X в разгоне обходит даже 2990WX ;)
Понятно, что эта таки разгон, но так-то есть и Ryzen 7950X, где оно из коробки работает на еще бОльших частотах. Плюс десяток процентов IPC. Так что ждать там особо нечего, брать можно хоть прямо сейчас.
Так ядра, да и в целом конфигурация чипа там такая же, что и на Epic'ах :)
По сути, TR был для рабочих станций раньше, в старые времена. Сейчас же это TR Pro, т.е. 8 каналов памяти, поддержка ECC (регистровой в т.ч.), и общий объем RAM 2 терабайта. Т.е. вся разница с Epic — у TR Pro выше термопакет, а потом и частоты тоже выше. Ну и все на этом. :)
На мультипотоке — вполне себе будут помощниками. Это же тот же принцип, что у AMD десять лет назад, во времена стройтехники: однопоток у нас тут слабый, но кому он в 2011-м году нужен? А мультипоток — шикарный, ибо количество ядер — тоже «мульти». Но конечно нужно смотреть тесты по работе именно этого ПО, какие там будет предпочтения. Ибо если оно там опять же сможет задействовать последний AVX, то у Intel понятно будет все плохо, т.к. даже в 24-х ядерном топе у них нет ни одного ядра с его поддержкой против 16 в топе у AMD. А вот если не задействуют современные программы этот набор — все будет очень даже непредсказуемо.
>>Особенный интерес для нас вызывает поддержка этой программой набора инструкций AVX-512, а также оптимизация этого ПО конкретно под Zen 4 в последней версии, которую мы и использовали.
__________
То, что оно под AVX-512 писали — это хорошо, оно так честно — не хочет Intel завозить, ну или вернее — разрешить их использовать, эти инструкции — проблема Intel. А вот заточка под архитектуру — так себе идея, оно тут как раз таки не очень честно. Разумеется, как и те случаи, когда оно точится под Core. В данном случае я бы предпочел какое-то нейтральное ПО. Идеально — что-то старое, для выявления чистого однопотока на универсальном наборе FPU, т.е. не более, чем SSE2, собранное старыми еще компиляторами. Оно в данном случае все будет работать как по уши разогнанный Core2Duo, со здоровенными кешами, и очень быстрой памятью. Ну и ПО для .Net например, там тоже как бы оптимизациями под архитектуру не пахнет, зато оно само по себе достаточно свежее найти не сложно. А проверять, как работают современные SSE/AVX-инструкции можно на синтетике.
____
Плюс, опять же, реализацию AVX-512 неплохо было бы проверить на старых 12900K (они там работают, если взять BIOS'ы первой волны для плат), или 11900K. Тоже как бы синтетика в чистом виде, но это и интересно, у кого оно лучше вышло. А что Intel эти инструкции потом запретила — то уже другая тема.
Помню, когда вышел Pentium 60 и 66, а потом — 75, 90 и 100, после чего 120 и 133, затем 150 и 166, ну и потом король — 200, никто их рефрешами предыдущих не называл. Как и последующие MMX, потом P2, P3 и т.д, пока не случился Haswell, а 14 нм. не позволяли выдать приемлемые частоты с достаточным количеством кремния. Ну и пришлось «рефрешить» 22 нм.
Я так понимаю, что сейчас у Интел очередной затык, на 10 нм спустя 5 лет мучений таки перешли, а дальше опять не выходит каменный цветок?
В четверг вечером, 16-го марта взял RTX 3060 за 32500. В воскресенье она уже 35000. Так что тут не угадаешь, очень многое зависит от курса доллар/рубль. И да, у меня тоже предел был. После подорожания уже бы не взял, т.к. покупал с отпускных, ну нет у меня 35 тыс.!, а к тому времени, пока получу следующую зарплату, плата вполне и 39 тыс. может уже стоить, и будет большой вопрос, есть ли смысл в ее покупке, учитывая, что там уже 2-3 месяца до выхода 4060.4060 Ti останется.
А не полез бы куртка со своими тензорными ядрами, разработанных для серверов в игровые ПК, выпустил бы нормальный RTX 2xxx в 2019-м, где было бы больше ядер CUDA, да пусть и RT, дабы оно быстро само собой работало, без костылей с «придумыванием» информации — и был бы сейчас FPS выше, чем раньше, со 100% гарантированной и предсказуемой картинкой на мониторе в придачу.
Так что да, еще раз повторю — отнимает производительность.
___
Это поможет, если есть данные хотя бы о нескольких десятках предыдущих кадров на весь цикл движения маятника. А если только несколько соседних, то вероятно будет чудить. Ну вот идут у нас соседние кадры движения слева-направо, и сверху-вниз. Движение с ускорением. Тут вектор конечно поможет. Но как он поможет предсказать, что после нижней точки оно пойдет уже по-прежнему слева-направо, но уже снизу-вверх? И при этом — еще и с замедлением, т.е. каждый новый кадр теперь нужно рисовать на меньшее смещение, чем когда маятник шел с ускорением вниз?
И правильно делает. А то как Вулкан использовать, или там фрисинк — то Курта быстренько подсуетился. А как лицензировать физику, или там CUDA — так оно наше собственность!
Другое дело, что у nVidia нет встроек, а у Intel есть своя технология, т.е. пилить игру под именно что «встройки AMD» мало кто будет.
А что FSR-3? А он сделает похоже то же самое, но еще и за счет интерполяции накинет мыла! Так себе варианты, оба! У AMD понятно тут хуже, но толку от того, что у nVidia оно без мыла, если положение объекта нарисовано против закона физики?
Понятно, что эта таки разгон, но так-то есть и Ryzen 7950X, где оно из коробки работает на еще бОльших частотах. Плюс десяток процентов IPC. Так что ждать там особо нечего, брать можно хоть прямо сейчас.
По сути, TR был для рабочих станций раньше, в старые времена. Сейчас же это TR Pro, т.е. 8 каналов памяти, поддержка ECC (регистровой в т.ч.), и общий объем RAM 2 терабайта. Т.е. вся разница с Epic — у TR Pro выше термопакет, а потом и частоты тоже выше. Ну и все на этом. :)
__________
То, что оно под AVX-512 писали — это хорошо, оно так честно — не хочет Intel завозить, ну или вернее — разрешить их использовать, эти инструкции — проблема Intel. А вот заточка под архитектуру — так себе идея, оно тут как раз таки не очень честно. Разумеется, как и те случаи, когда оно точится под Core. В данном случае я бы предпочел какое-то нейтральное ПО. Идеально — что-то старое, для выявления чистого однопотока на универсальном наборе FPU, т.е. не более, чем SSE2, собранное старыми еще компиляторами. Оно в данном случае все будет работать как по уши разогнанный Core2Duo, со здоровенными кешами, и очень быстрой памятью. Ну и ПО для .Net например, там тоже как бы оптимизациями под архитектуру не пахнет, зато оно само по себе достаточно свежее найти не сложно. А проверять, как работают современные SSE/AVX-инструкции можно на синтетике.
____
Плюс, опять же, реализацию AVX-512 неплохо было бы проверить на старых 12900K (они там работают, если взять BIOS'ы первой волны для плат), или 11900K. Тоже как бы синтетика в чистом виде, но это и интересно, у кого оно лучше вышло. А что Intel эти инструкции потом запретила — то уже другая тема.
Я так понимаю, что сейчас у Интел очередной затык, на 10 нм спустя 5 лет мучений таки перешли, а дальше опять не выходит каменный цветок?