Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Ну на максималках даже в 2К от силы 30 fps. Как работает Киберпанк на максималках, а особенно с новым уровнем лучей? Ведьмак, Хогвартс. Да и много где низкая производительность, но там на 4080-4090 спасает DLSS2/3 (+150% к fps), а где лучи (они уже везде по сути) там ещё больше разница.
avatar
Так это от нагрузки зависит! Просто Athlon 64 загружен теперь на всю катушку и постоянно потребляет 70-90 ватт, тем более и блок питания с меньшим кпд тех времён. А Core i9 при сёрфинге-офисной работе 20-30 ватт, пики бывают до 100, но это на секунду, блок холодный, а с Athlon 64 тёплый. Pentium 4 гораздо лучше были, производительность выше из-за HT, и оптимизаций, грелись они на самом деле не сильно выше, и главное они не ломались, а на Athlon 64 тогда у меня сломалось 2 платы и 1 раз сам процессор… Так что Athlon 64 и был самым неудачным. А 64 битность тогда была лишь рекламным трюком, смысла в ней не было, понадобилась во времена Core2.
avatar
Потребление как бы от задач зависит. И надо ставить нужные лимиты, тогда не превысит. Скажем на видеокартах жёсткие лимиты, и какая-нибудь 4070, которая считается тихой, малопотребляющей, в FurMark бы просто выжгла всю плату и GPU, не будь там лимитов и сброса частот. Тоже самое телефоны, ноутбуки, планшеты, серверы, рабочии станции и тд. И только в компах для самосбора почему-то лимиты по-умолчанию не стоят…
avatar
Упор был в видеокарты, именно их не хватало, у меня была тогда 8800GTX и замена на GTX 295 дала возможность ставить FullHD и настройки в пол, конечно может если бы сделали карту ещё втрое быстрее, то упёрлось бы в процессор. Кстати сейчас эта же игра, ремастер, очень сильно упирается в мою RTX 4080 в 2К.
avatar
Не совсем так, современные топы это сверх сложные карты, они совсем других ценовых категорий. Так можно сказать, что аналог «4090» из конца 90ых это тогдашний топ Riva TNT? Но как-то смотря на простые карточки тех лет, так не кажется.
avatar
В Кризисе 1 упор был в GPU, у меня была 8800GTX, замена на GTX 295 увеличила fps почти втрое.
avatar
22 тыс через месяц-два после старта она была только у барыг, в магазинах дешёвых 23-25 тыс.
avatar
Везде кроме жёсткой многопоточки такой будет чуть быстрее, чем 14700. Кстати я думаю возможно тут ошибка и мелких ядер там тоже 14, поэтому и индекс 14790, а не 14690 скажем и тд.
avatar
Нет, вы не правы, тут хитрее, 3ий уровень это единый блок кэша на 36МБ, а 2ой уровень это сумма кэшей всех ядер, 4 мелких ядра отключили и их личный кэш тоже конечно же отключён. Никак на быстродействие больших ядер и оставшихся мелких это не влияет.
avatar
В Кризисе и подобных SLI работало и позволяло почти удвоить fps и дотянуть его до достойных значений в те времена. 22 тыс тогда это зарплата у многих, сейчас 60-70 это, столько стоит RTX 4070 Super, карта такого же класса по сути.
У меня тогда была такая GTX 295. Все эти карты имели просчёт и погорели, мне мою обменяли на GTX 570 по гарантии. Кстати в тех игрушках, где SLI работал, GTX 570 выдавала примерно тоже самое или чуток больше.
Помимо 2х GPU в системе, в Диспетчере устройств ещё появлялось 2 шины PCI-E, это локальные шины от каждого GPU, до чипа коммутатора. И эти шины были PCI-E 2.0, и так карта определялась поэтому, что работает в режиме 2.0, хотя моя система на Intel 975X имела только PCI-E 1.0.
avatar
Ну 30 тыс за игровую карту в наши дни это немного, зато там всё шикарно идёт, а заплатив за APU получится ерунда, всё равно придётся потом взять дискретку и потратить ещё больше в сумме.
avatar
На ТВ таких уравнялок нет и быть не может, надо чтобы ТВ рендерил полигоны в играх сам, зная про них заранее, как это и сделано в DLSS, это не добавка кадров, а очень сложный алгоритм, который использует особые блоки видеокарт. Попробуйте включать и отключать DLSS3, разницы не будет, вы никогда не заметите разницы в плане отклика. С DLSS3 есть только одна «проблема», обязателен монитор с G-Sync/Free Sync, т.к. вертикальной синхронизации иначе не будет и будут всегда рваные кадры, ну купив дорогую видеокарту, такой монитор тоже обязателен. На телевизоре кстати это не работает или только на особых.
avatar
Это не так работает, скажем у меня iPad Pro и там постоянно забито 7.5 из 8ГБ, iOS 17, а на Galaxy S21 обычно 4-5 из 8ГБ и максимум могу забить 6.5 из 8ГБ. Просто память есть и данные кэшируются. А все Андроиды последних лет потребляют одинаково, что Андроид 11, что 14, везде на Galaxy S потребление памяти одинаковое, быстродействие же на Андроид 13 и 14 выше, оптимизировали всё. Так что с 6ГБ стоит смело ставить новые версии, тем более 6ГБ у S20FE и там Андроид 13 (новее уже не будет) летает и быстрее, чем 10-11.
avatar
Колоссально не дотягивает, до 2-3 раз, на 1070 даже в 2К ещё многое идёт, это нормальная видеокарта в целом, а на APU только FullHD и низкие, иногда среднии настройки. Скажем на APU в FullHD на хороших настройках тормозит даже World of Warcraft или Residen Evil Village..., а на 1070 эти игры идут отлично в 2К на таких настройках.
И опять же провалы и проблемы на APU и ровный fps хоть и на старичке, но флагманской карте прошлого. Не мучайтесь, возьмите 4060-4060Ti, до 10 раз разница с APU на реальных настройках.
В итоге будет бессмысленный APU, с которым будет работать 1070 вместо встройки, которую захочется выключить. Лучше взять 12400F, хороший и недорогой процессор, памяти вам хватит любой, базовой DDR4 или DDR5.
avatar
Ещё раз, в таком режиме пройден на ноуте с RTX 4060 Киберпанк, там 30 fps, а после DLSS3 стало 60. Но почему на таких 60 сразу удобно стрелять???
И я легко прохожу игру и меня не забивают, точно также как на моём мощном десктопе с RTX 4080, где карта может выдать эти же 60 без DLSS3.
И так во всех играх, пройдено уже штук 10, я пользуюсь DLSS3 с релиза этой фичи, с ноября 21 года.
Попробуйте вживую (!) говорю же, не читайте страхи в комментариях, ведь пишут их такие же как и вы, кто вживую DLSS3 не видел ни разу.
avatar
Для iOS нет такой клавиатуры почему-то, удобная Гугл клава в Андроиде, а Гугл клава для iOS совсем не такая. Почему-то никто не сделают удобную клавиатуру для iOS, странно, скажем я её куплю сразу в App Store.
avatar
Андроид 14 доступен только для S21 и новее. Кстати Андроид 13 стал сильно быстрее работать на телефонах (S20-S21-S22), чем Андроид 11 и 12, там Самсунг оптимизировали всё и убрали всякие подёргивания местами. В Андроид 14 ещё немного улучшили. Поэтому советую поставить самую новую систему, хуже в любом случае не будет, дополнительной громоздкости нет, системы одинаковы по объёму и нагрузке на процессор. Больше влияют современные версии приложений.
avatar
Ну как не улучшают, если было 60 fps, а стало 120, т.е. настоящая живая картинка, ничем не отличается (!), если снизить настройки и получить 120 fps без DLSS3. Т.е. по итогу как будто процессор стал работать на 10ГГц, про это и пишу, какая разница как это получается, если итог одинаков.
Инпутлаг/отзывчивость не меняются, тем более есть технологии снижения инпутлага. Более того, даже если было 30 fps, а стало 60 fps после DLSS3, то и при таких 60 стало колоссально приятнее играть и сразу легче стрелять по монстрам, как при настоящих 60… Разницы нет, возможно киберспорстмены могут что-то заметить, но они зарабатывают своей игрой хорошие деньги и играют на низких настройках и на топ железе. Советую вживую (!) попробовать и все заблуждения и страхи сразу развеются.
avatar
Так обычно там и так 100+ fps. И на глаз нет разницы, что простой процессор, что топовый.
avatar
Нет, fps же итоговый выше, то было скажем 70 с провалами до 40, а стало 140 с провалами до 80. Фактически такой fps может выдать только 10ГГц i9 тех старых серий, а тут работает на 5ГГц и далее DLSS3 удваивает fps. Оперативная память тоже как бы ускоряется вдвое. Вот при работе DLSS2 да процессор/память должны были выдавать этот fps, а только с видеокарты снималась работа.