Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Отличный ответ на обоснованную критику от автора статьи, оплаченной редакцией издания, получившего на тест оборудование!
avatar
Только можно заметить, что очень редко повышение частот приводит к линейному росту производительности :)
И правильно замечено, что при прочих совсем всех равных. Но мы тут говорим о другой архитектуре с неизвестным набором изменений.
avatar
Я думаю тем, что он давно не высказывался на эту тему и просто решил сказануть в первую попавшуюся.
avatar
Только занижение производительности для старых поколений не проходит проверку фактами.
avatar
Нельзя было потому что это определяется в том числе шиной памяти. Нельзя на 320 битной шине памяти набрать памяти не кратно колличеству контроллеров памяти. Поэтому при 256 битной шине приходится довольствоваться 8 ГБ, потому что следующий шаг теоретически был бы 12, но это потребовало бы наличия чипов разной емкости на карте, а это и дороже (нужно запасы чипов разной емкости держать, притом что одни из них — уникальные) и не факт что поддерживается контроллерами памяти на видеокартах. Ну и еще чипы памяти половинной емкости были бы дешевле (если они мало кому нужны то цена может не сильно отличаться).
А почему вообще решили что 256/320/384 шины в линейке — да просто посчитали что этого достаточно и для победы над конкурентом и для типичных задач. Не надо забывать что проектирование карт начинается сильно заранее, скорее всего что у АМД что у нВидии уже есть примерное представление о характеристиках чипов на пару поколений вперед, в которые уже сейчас сложно внести коррективы.
avatar
А чем принципиально чиплетный дизайн отличается от SLI/CrossFire и старых карт с несколькими GPU? Те же проблемы ж.
avatar
Ремастер страдает похожими на оригинал проблемами — странным движком, который упирается в CPU и видеокарта там на «Can it run crysis?» перестает играть роль. Были тесты, загрузка GPU ниже 50% на 4к, игра дает 30 FPS от силы на любом разрешении.
avatar
Тут другая проблема, как мне кажется, 8к что-нибудь стоит не просто дофига, а как новый порш или тесла. Так что таким людям в принципе будет все равно на какие-то 800$ разницы.
avatar
Конечно влияет, но есть еще куча других параметров которые могут влиять. А еще слухи могут ошибаться в каком-нибудь из моментов (например по факту конкурент может быть для RTX 3070, а не 3080-3090 как надеятся люди, или утечки говорят неверно про ширину шины памяти или ее тип. Поэтому в общем к слухам надо относится осторожно. Лучше всего подождать обзоров. Все равно кто еще не купил 3080/3090 по сути в пролете на ближайшие недели.
avatar
Просто по числам сравнивать не стоит, разные архитектуры дают разную эффективность как минимум. В целом про карты что то однозначно будет понятно после тестов, не раньше. Даже с шиной памяти и ее пропускной способностью все не так однозначно как может показаться, хотя конечно слухи про большой кэш вместо широкой шины выглядят очень сомнительно.
А слухи про частоты в 2.5 ГГц качались только младшего варианта. Про старшие слухи упоминают 2.1 ГГц по чипу.
avatar
Обычно такие вещи на стадии обкатки еще проверяют.
avatar
У nvidia полный набор блоков fp32 и такой же набор fp32/int. Поэтому корректно разделять в спеках и указывать половинное для int и текущее для fp32, но так как fp32 больше то в спеки идет более красивое число.
avatar
Зависимость от простых конденсаторов очень давно уже и чем сложнее чип тем выше зависимость. Поищите зачем нужны bypass конденсаторы (много источников, на eevblog, например, было видео где наглядно с осциллографом показывали зачем они нужны в простых схемах, как пример, а чем более высокочастотная схема, тем важнее их качество).
avatar
Почему так думаете-то?
avatar
Не в тыкву, а в сток. Пока из того что известно проблемы начинаются после буста выше 1875 мгц, зарежут до 1850 или 1825.
К тому же не все разогнанные карты страдают данной проблемой.
avatar
Выводы в статье неверные. Програмно можно поправить проблему просто подрезав частоты карты мегагерц на 50.
avatar
Те кто делают заявление очевидно не знают (или человек задумался и ляпнул не то). Поищите внешний вид poscap и сравните с тем что реально на карте. А потом поищите SP-Cap и как они выглядят.
На худой конец, poscap'в раньше встречались на некоторых картах, во времена gtx 4xx/5xx, например.
avatar
Так весь диалог кажется начался с вопроса моего «с чего бы это?»
avatar
Для растянутой DLSS'ом картинки из 2560x1440 до 8к? Я вот не уверен, тесты бы увидеть.
avatar
Да я смотрел, тут дело в том что я описывал выше — Pascal и Turing сильно отличаются в том, как они работают с какими-то фичами. Игры, которые используют эти фичи хуже работают на паскалях, там где это не используется (dx11 игры например) разница более похожа на то что было на старте.
И кстати не факт, потому что после оптимизаций иногда ускоряются и старые карты, зависит от игры достаточно сильно. Поищите benchmark'и которые сравнивали именно влияние на старые карты. На реддите есть паблик, где человек сравнивает каждую минорную версию драйверов на 1080 Ti и там можно прям по играм посмотреть как меняется производительность даже при минорных обновлениях.