Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Будут также душить и разными способами, по сути США это Римская империя, монополист, который душит весь мир, и как любой монополист не даёт развиваться никому, поэтому и технический прогресс замедлился, также как Intel без AMD выдавали 4 ядра десятилетие, а тут тоже самое, только в глобальном режиме и намного жёстче и с кровью. И кстати как любой монополист и сам перестаёт развиваться.
avatar
Прохожу прямо всё из нового, всё летает на 40ой линейке, что я делаю не так?)
avatar
Все 4000ые карты не упираются в шину на тех настройках, на которых GPU хоть как-то тянет. Когда-то и 384 бита было мало, в GTX260 было 448 бит, а в топах только 512.
avatar
Курва именно так работает, снижает напряжение для частот, но есть минимальное напряжение, ниже уже не поставить никак, VRM платы не умеет, а в стресс тестах и с курвой и без курвы, такая жуткая нагрузка, что в любом случае включается это самое минимальное напряжение, и низкая частота, причём частота ещё сильнее просаживается из-за лимита в TDP, т.к. на этом низком напряжении можно было бы работать на более высоких частотах, но жор такой большой, что нельзя.
avatar
В теории да, но таких случаев в играх нет, на максималках там более сложная графика и не хватает GPU. Ну собственно это же бюджетные карты в любом случае, чтобы что-то хорошо работало надо брать 4070Ti и выше.
avatar
Прямо сейчас играю в Киберпанк, включаю/отключаю DLSS3 и никакой разницы нет, непонятно что вы там заметили у друга.., а вот от DLSS2 в этой игре есть редко артефакты, знаю в 2х местах где их найти)) но это конечно сверх редко и могут поправить. И кстати на 4080 в 2К всего 20-30 fps в этой игре на предельных настройках, но если включить DLSS2 и 3, то будет 60-80, и играется идеально и без проблем, будто это какая-то «6080», ведь такую производительность с новым уровнем лучей пока не может выдать ни одна карта и близко.
avatar
на 4080 ещё вдвое быстрее же с DLSS3
avatar
Так как раз, просто нет проблем, если бы взяли плату на B чипсете и дорогой даже Core i9, то всё работало бы как часы. Скажем у подруги так B чипсет, среднего уровня плата и 13700К, всё отлично. В стресс тестах упор в лимиты и ладно. Вы просто сильно волнуетесь за работу компа, но надо только поставить лимит адекватно плате, охладу и корпусу и забыть дальше про всё. Про «320 ватт на моей 4080 и нереспект», это я как пример вам, как работают эти лимиты и зачем они… Кстати если крутить курву, то стресс тест будет также выжирать 320 ватт на частоте 2.2-2.3ГГц, т.к. карта на таких частотах работает на своём минимально возможном напряжении и так, но уже стресс тест выжирает 320 ватт, курва снижает потребление только на высоких частотах. А без лимита и даже с курвой стресс тест на высоких частотах жрал бы 500 ватт… С процессорами тоже самое. А вам советую серьёзно протестировать процессор на стабильность, ведь снизив напряжение, не факт, что он стабильно работает, кстати это сделать не так и просто, т.к. масса параметров туда сюда меняется, включая те, что во время стресс теста частота работы обычно ниже, в большинстве случаев, если не нужен дикий разгон, или какой микро корпус с микро охладом, на 13600К лучше убрать все андервольты и поставить лимит, думаю 135-165 ватт длительный и 220 пиковый будет отлично. Для такого хватит простого охлада.
avatar
в 40ой линейке и в младших большие кэши и они реально работают. Важен же итог в сумме, а в сумме эти карты очень здорово работают.
avatar
Так никто и не меняет 3060 на 4060, но с нуля лучше брать 4060, если надо много памяти и играть на высоких настройках, то конечно, лучше брать что-то дороже, но и ни 3060 и ни 4060, т.к. у них и GPU не такие мощные, а 4070 надо, а лучше 4070Ti-4080. Не знаю что за игра Рыцарь, но играю с ноября на 4080 в кучу игр, почти всегда потребление 8ГБ, иногда бывает 10-11ГБ, но если выкрутить разрешение и скажем надо уже 12-13ГБ, то просто не хватает производительности моего GPU на 4080 обычно, именно поэтому для 4060 в целом 8ГБ нормально, кстати вышла уже 4060Ti на 16ГБ и во всех обзорах она работает как её дешёвый 8ГБ вариант, лишняя память не помогает.
avatar
10% это примерно одинаково как раз, тем более в разных играх по разному, когда не хватает псп, там сильный провал, об этом и речь, что 384 бита как 192 бита работают же.
avatar
Да опечатка 192 у 3060. Главное, что 4060 не упирается в свои 128 бит никак. Кстати 192 бита сейчас аж у 4070Ti, которая вдвое быстрее этих карт, и тоже не упирается лишь в 1.5 более широкую шину.
avatar
Фильм это не 3д сцена, а DLSS3 работает именно с 3д моделями ещё, и при переделывании кино нет тензорных ядер и такого сложного алгоритма. Ещё раз говорю… попробуйте сами (!), артефактов нет совсем, даже если присматриваться к деталям любым, т.е. вы никогда не поймёте, что сидите за 4060 со старым i5, а рядом будет стоять 4080 и топовый i9, на обоих будет одна и тажа картинка, с одинаковым fps… но в одном случае натив, а в другом удвоение DLSS3. И речь не про спокойные сцены, а любые, хоть Дум Ethernal, что угодно… Да реально понимаю вас, не верится, что такое смогли сделать, но они реально смогли. Видимо это очень сложно, раз такой алгоритм появился только в 2022 году, а как вы описали такое могли сделать ещё на первом Geforce256 в 1999 году, но так как вы описали, вышла бы конечно ерунда, а они сделали совсем не так.
avatar
Нет, не превращается, а всего лишь результат Синебенча 23 падает на 5-15%, всё равно в таком случае 13900К быстрее любого 13700К, хотя на первом будет простое воздушное охлаждение, а на втором огромный контур с водой. В малопоточных же задачах (а их большинство) и этого ничтожного снижения не будет. Ну видите, 99.9% пользователей не снижают напряжение и не имеют Z плат, а всё работает, причём работает при многочасовой многопоточной нагрузке в рабочих станциях, где если их разобрать так всё просто устроено по охлаждению, VRM питания и тд. Тоже самое и видеокарты, скажем моя 4080 в играх потребляет 260-320 ватт на частоте 2.8ГГц, редко какие игры упираются в лимит, а если упираются в какой-то редкой сцене, то частота падает до 2.7ГГц (3% разницы), но Фурмарк её просаживает до 2.2ГГц (25%), а главное включая самое низкое напряжение питания чипа, и то там 320 ватт потребление, при 2.8ГГц и нормальном напряжении было бы ватт 500-600… и карта просто сгорела бы. Тоже самое и с процессорами, но пока в самом начале пока, а через пару поколений, будет именно так, что на высокой частоте, он вообще не сможет даже в теории гонять тесты, хотя в реальных задачах всё будет хорошо. Скажем моя 4080 считается маложрущей и достаточно холодной картой.
avatar
Память в 4060 компенсируется огромным кэшем внутри GPU, поэтому 128 бит у 4060 как 256 бит у 3060. 3060 с такой большой частотой и кэшем, да был бы быстрее конечно. Но тем не менее DLSS3 это лютый бонус, увеличивающий fps вдвое, и тогда карта работает как 3080-3090 или топы красных. Опять же при DLSS3 ускоряется и центральный процессор, 4060 думаю будут покупать владельцы слабых процессоров, но с DLSS3 они начинают обгонять топовые, скажем какой-нибудь i7 8700 из 17 года начинает выдавать так.
avatar
Их нет совсем, десятки часов у меня наиграно с DLSS3. А вы вживую никогда не видели, как оно работает.
avatar
Очень много игр прохожу с DLSS3, артефактов нет совсем, попробуйте сами вживую, тут реально вау эффект, даже непонятно, ну как так сделали, нажатие на опцию и сразу fps в 2 раза выше, причём вдвое ускоряется как будто не только видеокарта, но и процессор и оперативная память. Ваши примеры не совсем корректны, кадров же было 40-60, а стало 80-120, поэтому это ничтожные события и никаких проблем нет, но я не вижу даже проблем, если было 20-30 кадров, а стало 40-60, главное, то тормозило, а теперь нет, ну и сам алгоритм очень сложный, на тензорных ядрах, видимо как-то они это хитрее реализовали, самое главное, что работает идеально.
avatar
Знаменитая 1070 как бы тоже имела блоков меньше, чем у 980ой даже, а по сравнению с 980Ti там блоков было конкретно меньше, но частота работы порешала и 1070 быстрее 980Ti, а по сравнению с 980, совсем другого класса.
avatar
DLSS3 очень крутая штука и реально работает, с ноября ею пользуюсь. А вот по размеру памяти, там где надо 12гб, уже моя 4080 еле вытягивает по GPU, так что 8гб реально тут впритык, но достаточно.
avatar
Ну как видим, карта работает и не упирается же в шину, иначе 3060 была бы впереди.