Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ну так прошёл год, на опыте уже делают, больше годных чипов, дадут поэтому больше блоков, цены снизят, чем плохо? Никто 4080 на 4080 Супер не будет менять, это просто обновление старых карт, зачем делать одно и тоже, если уже могут сделать получше, да ещё и дешевле.
Для чего мало, 16ГБ хватает даже и для игровых ноутов до сих пор, а тут офисный, опять же фоновое отправляется в подкачку на SSD, и тогда 16ГБ хватает совсем всегда. На дорогих Маках 8ГБ до сих пор, а 16ГБ на очень дорогих, хотя потребление памяти там такое же, просто также помогает подкачка. Ну и поставить 32ГБ можно в будущем везде тем более.
На 1070 Wow отлично идёт в 2К60, возможно у вас процессор слабоват, для прорисовки большой дальности или при большем числе персонажей он нужен, иначе будут провалы, а видеокарта тут не особо нужна. У меня есть ещё и 4060 и 4080, могу сравнить.
В Синебенч R24 4050 ноутбучная жрёт 70 ватт, она даже в TDP не упирается… процессор в этом GPU тесте почти не потребляет ничего. Десктопная 4080 в этом тесте потребляет 170-200 ватт, а процессор во время теста 30-40 ватт, при этом втрое быстрее М2 Ультры, которая потребляет ватт 130, т.е. у 4080 намного (!) выше производительность на ватт.
У меня прямо сейчас на столе обычный М2, он нереально тормозит в простенькой World of Warcraft и Resident Evil Village, в FullHD на высоких настройках (не максимальных даже), при этом эти игры отлично идут на GTX 970 (2014) и бюджетной карте 2016 года — RX 480 или GTX 1060. На GTX 1070 или Vega 64 они летают уже в 2К… А этим картам почти 8 лет. Т.е у Apple M2 уровень обычной хорошей встройки, скажем Radeon 780M. У вас свой ARM Mac то есть, чтобы проверить это лично и не писать сказки?
Есть же Синебенч R24, он под Винду и Мак, там есть GPU тест, и 4050 ноутбучные обходят М1 Ультра, и потребляет 4050 меньше. 4080 в десктопе набирает в 3 раза больше, чем М2 Ультра.
Красные карты в этом раунде стали чем-то совсем нишевым, типо смартфонов Sony, совсем для фанатов, берут их единицы, в комментариях много про карты говорят, а реальных владельцев нет, т.к. всё там очень печально… Надеюсь, в 8000 или 9000ой серии Radeon они допилят всё, и вернутся, иначе останемся вообще без конкурента, а это плохо будет.
Всё тянет, попробуйте вживую «фейкокадры» и «апскейл», от натива не отличается ничем, невозможно найти разницу даже если всматриваться или выключать/включать эти фичи.
А зачем брать карту за 100-120 тыс и сидеть на средних? Для этого есть шикарные 4060, которая даже лучи тянет в отличие от красных..., или любая старая карта 1080Ti-2060Super-5700 и тд.
Даже без лучей, если хочется живую картинку со 100fps+ надо включать DLSS, на красных же картах ничего не сделать или проходить на средних или 60 fps с провалами до 30-40, скажем Хогвартс Легаси, обновлённый Ведьмак3, да и почти любая актуальная игра. А тут можно и лучи включить до упора и иметь под 100 fps, без лучей за 100.
Кстати 4060 у меня в ноутбуке, там FullHD, и поэтому я везде ставлю настройки в пол и всё летает, а красные карты так не могут, даже топы… это реальный провал, поэтому красные продаются штучно, а зелёные объёмами.
У меня практика, и личный опыт, у вас теория. Попробуйте поиграть с лучами. А когда не хватает производительности, на 4080 включается DLSS2+DLSS3 и fps становится около 100, а это живая картинка и приятно проходить игрушки, на 7900ХТХ такое невозможно. Сравните fps скажем в Киберпанке на предельных настройках, особенно с новым уровнем лучей в патче 2.0-2.1, или Алан Вейк2, на 4080 в 2К там под 100 fps… на красных картах уже неиграбельный fps.
Да и в 2К потребление 10-13ГБ, никаких 14-16ГБ нет. И если такие настройки выкрутить, где надо под 16ГБ, а это обычно рендер в сверхразрешении (4К c предельными настройками, или вообще 5К), там GPU карты просто не тянет. Т.е. у вас опять теория, я же играю и смотрю потребление памяти, fps, загрузку GPU.
На реальных настройках 4080 колоссально быстрее, иногда разница несколько раз, если в игре много лучей, плюс DLSS, а такие карты берут только чтобы играть на максималках и с большим fps. Обоим картам реально не нужно более 12ГБ, уже GPU не вывозит даже на 4080, а у ХТХ понятное дело намного раньше. 16ГБ с запасом большим на 4080.
Ну да, у меня такой Core i9 9900K, 5 лет. У подруги такой же, тоже 5 лет. В новостях было что-то про 11 поколение, но похоже это просто хайп на старте, в итоге у всех всё работает, на форумах ни у кого проблем нет. Проблемы же, что процессор не заработал из-за того, что была старая плата LGA 1200 со старым BIOS, без поддержки 11го поколения, наверное не стоит рассматривать, а вот таких пользователей много, и бегут возвращать.
Материнки, БП, видеокарты ломаются, все гарантийки ими забиты, а процессоры редки, всё как и всегда. Что они делали из чата мы не знаем, скорее всего «энтузиасты» разгонов и моддинга и тд. В офисах сотни ПК, поломок процессоров нет. В серверах теже самые кристаллы, сломанный процессор что-то невероятно редкое. Тоже самое ноутбуки, из-за замыкания полно сломанных процессоров, а без замыкания все работают.
Так говорили и тогда, что Pentium 4 и Core 2 сделаны по очень тонким уже техпроцессам, а вот 286-386 какие надёжные… Как раз статистика, что поломок очень мало и не больше, чем раньше, сейчас ломаются только Райзены AM5 из-за просчётов. И более того, раньше процессор намного легче деградировал, скажем мой личный Пень2 266 работал на 308МГц, холодный, тихий, потребление небольшое, но вскоре уже брал только 300, а потом на 308 даже не грузил Винду. Атлоны XP сгорали массово при малейшей оплошности с кулером, в Атлонах64 это поправили, но они сами часто выходили из строя, при переходе с 130нм на 90нм, это поправили.
Ну это профессиональные музыканты, которые легко могут отличить одну ноту на соседних октавах и записывают легко ноты, просто слушая музыку, хоть по радио. В реальности в слепом тесте никакой разницы нет. У меня кстати Реалтек и хорошие звуковые есть, когда не говоришь где что, все эти «аудиофилы» валятся.
В Киберпанке FullHD, настройки предельные, и главное новый уровень графики лучей: трассировка пути, в тесте игры 58 fps, просто катаясь по ночному городу 65 fps, а в бою в коридорах намного больше. В режиме DLSS качество. А так и 6800 и 7800 не могут и даже 7900ХТХ…
Производительнее на средних настройках, а с лучами она колоссально медленнее 4060. Опять же FSR это мыло, включать можно только уже когда карта очень старая, лениво брать новую и хоть как-то играть (а тут речь про новую и не ультрабюджетную карточку...), а DLSS качество выдаёт картинку уровня натива. И поэтому 4060 опять быстрее в реальных играх будет. Ой забыли ещё DLSS3, а это ещё быстрее, и тогда (лучи+DLSS2/3) там уже разы может быть разница от этой красной карты.
У меня прямо сейчас на столе обычный М2, он нереально тормозит в простенькой World of Warcraft и Resident Evil Village, в FullHD на высоких настройках (не максимальных даже), при этом эти игры отлично идут на GTX 970 (2014) и бюджетной карте 2016 года — RX 480 или GTX 1060. На GTX 1070 или Vega 64 они летают уже в 2К… А этим картам почти 8 лет. Т.е у Apple M2 уровень обычной хорошей встройки, скажем Radeon 780M. У вас свой ARM Mac то есть, чтобы проверить это лично и не писать сказки?
Даже без лучей, если хочется живую картинку со 100fps+ надо включать DLSS, на красных же картах ничего не сделать или проходить на средних или 60 fps с провалами до 30-40, скажем Хогвартс Легаси, обновлённый Ведьмак3, да и почти любая актуальная игра. А тут можно и лучи включить до упора и иметь под 100 fps, без лучей за 100.
Кстати 4060 у меня в ноутбуке, там FullHD, и поэтому я везде ставлю настройки в пол и всё летает, а красные карты так не могут, даже топы… это реальный провал, поэтому красные продаются штучно, а зелёные объёмами.
Да и в 2К потребление 10-13ГБ, никаких 14-16ГБ нет. И если такие настройки выкрутить, где надо под 16ГБ, а это обычно рендер в сверхразрешении (4К c предельными настройками, или вообще 5К), там GPU карты просто не тянет. Т.е. у вас опять теория, я же играю и смотрю потребление памяти, fps, загрузку GPU.