Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ну на максималках даже в 2К от силы 30 fps. Как работает Киберпанк на максималках, а особенно с новым уровнем лучей? Ведьмак, Хогвартс. Да и много где низкая производительность, но там на 4080-4090 спасает DLSS2/3 (+150% к fps), а где лучи (они уже везде по сути) там ещё больше разница.
Так это от нагрузки зависит! Просто Athlon 64 загружен теперь на всю катушку и постоянно потребляет 70-90 ватт, тем более и блок питания с меньшим кпд тех времён. А Core i9 при сёрфинге-офисной работе 20-30 ватт, пики бывают до 100, но это на секунду, блок холодный, а с Athlon 64 тёплый. Pentium 4 гораздо лучше были, производительность выше из-за HT, и оптимизаций, грелись они на самом деле не сильно выше, и главное они не ломались, а на Athlon 64 тогда у меня сломалось 2 платы и 1 раз сам процессор… Так что Athlon 64 и был самым неудачным. А 64 битность тогда была лишь рекламным трюком, смысла в ней не было, понадобилась во времена Core2.
Потребление как бы от задач зависит. И надо ставить нужные лимиты, тогда не превысит. Скажем на видеокартах жёсткие лимиты, и какая-нибудь 4070, которая считается тихой, малопотребляющей, в FurMark бы просто выжгла всю плату и GPU, не будь там лимитов и сброса частот. Тоже самое телефоны, ноутбуки, планшеты, серверы, рабочии станции и тд. И только в компах для самосбора почему-то лимиты по-умолчанию не стоят…
Упор был в видеокарты, именно их не хватало, у меня была тогда 8800GTX и замена на GTX 295 дала возможность ставить FullHD и настройки в пол, конечно может если бы сделали карту ещё втрое быстрее, то упёрлось бы в процессор. Кстати сейчас эта же игра, ремастер, очень сильно упирается в мою RTX 4080 в 2К.
Не совсем так, современные топы это сверх сложные карты, они совсем других ценовых категорий. Так можно сказать, что аналог «4090» из конца 90ых это тогдашний топ Riva TNT? Но как-то смотря на простые карточки тех лет, так не кажется.
Везде кроме жёсткой многопоточки такой будет чуть быстрее, чем 14700. Кстати я думаю возможно тут ошибка и мелких ядер там тоже 14, поэтому и индекс 14790, а не 14690 скажем и тд.
Нет, вы не правы, тут хитрее, 3ий уровень это единый блок кэша на 36МБ, а 2ой уровень это сумма кэшей всех ядер, 4 мелких ядра отключили и их личный кэш тоже конечно же отключён. Никак на быстродействие больших ядер и оставшихся мелких это не влияет.
В Кризисе и подобных SLI работало и позволяло почти удвоить fps и дотянуть его до достойных значений в те времена. 22 тыс тогда это зарплата у многих, сейчас 60-70 это, столько стоит RTX 4070 Super, карта такого же класса по сути.
У меня тогда была такая GTX 295. Все эти карты имели просчёт и погорели, мне мою обменяли на GTX 570 по гарантии. Кстати в тех игрушках, где SLI работал, GTX 570 выдавала примерно тоже самое или чуток больше.
Помимо 2х GPU в системе, в Диспетчере устройств ещё появлялось 2 шины PCI-E, это локальные шины от каждого GPU, до чипа коммутатора. И эти шины были PCI-E 2.0, и так карта определялась поэтому, что работает в режиме 2.0, хотя моя система на Intel 975X имела только PCI-E 1.0.
Ну 30 тыс за игровую карту в наши дни это немного, зато там всё шикарно идёт, а заплатив за APU получится ерунда, всё равно придётся потом взять дискретку и потратить ещё больше в сумме.
На ТВ таких уравнялок нет и быть не может, надо чтобы ТВ рендерил полигоны в играх сам, зная про них заранее, как это и сделано в DLSS, это не добавка кадров, а очень сложный алгоритм, который использует особые блоки видеокарт. Попробуйте включать и отключать DLSS3, разницы не будет, вы никогда не заметите разницы в плане отклика. С DLSS3 есть только одна «проблема», обязателен монитор с G-Sync/Free Sync, т.к. вертикальной синхронизации иначе не будет и будут всегда рваные кадры, ну купив дорогую видеокарту, такой монитор тоже обязателен. На телевизоре кстати это не работает или только на особых.
Это не так работает, скажем у меня iPad Pro и там постоянно забито 7.5 из 8ГБ, iOS 17, а на Galaxy S21 обычно 4-5 из 8ГБ и максимум могу забить 6.5 из 8ГБ. Просто память есть и данные кэшируются. А все Андроиды последних лет потребляют одинаково, что Андроид 11, что 14, везде на Galaxy S потребление памяти одинаковое, быстродействие же на Андроид 13 и 14 выше, оптимизировали всё. Так что с 6ГБ стоит смело ставить новые версии, тем более 6ГБ у S20FE и там Андроид 13 (новее уже не будет) летает и быстрее, чем 10-11.
Колоссально не дотягивает, до 2-3 раз, на 1070 даже в 2К ещё многое идёт, это нормальная видеокарта в целом, а на APU только FullHD и низкие, иногда среднии настройки. Скажем на APU в FullHD на хороших настройках тормозит даже World of Warcraft или Residen Evil Village..., а на 1070 эти игры идут отлично в 2К на таких настройках.
И опять же провалы и проблемы на APU и ровный fps хоть и на старичке, но флагманской карте прошлого. Не мучайтесь, возьмите 4060-4060Ti, до 10 раз разница с APU на реальных настройках.
В итоге будет бессмысленный APU, с которым будет работать 1070 вместо встройки, которую захочется выключить. Лучше взять 12400F, хороший и недорогой процессор, памяти вам хватит любой, базовой DDR4 или DDR5.
Ещё раз, в таком режиме пройден на ноуте с RTX 4060 Киберпанк, там 30 fps, а после DLSS3 стало 60. Но почему на таких 60 сразу удобно стрелять???
И я легко прохожу игру и меня не забивают, точно также как на моём мощном десктопе с RTX 4080, где карта может выдать эти же 60 без DLSS3.
И так во всех играх, пройдено уже штук 10, я пользуюсь DLSS3 с релиза этой фичи, с ноября 21 года.
Попробуйте вживую (!) говорю же, не читайте страхи в комментариях, ведь пишут их такие же как и вы, кто вживую DLSS3 не видел ни разу.
Для iOS нет такой клавиатуры почему-то, удобная Гугл клава в Андроиде, а Гугл клава для iOS совсем не такая. Почему-то никто не сделают удобную клавиатуру для iOS, странно, скажем я её куплю сразу в App Store.
Андроид 14 доступен только для S21 и новее. Кстати Андроид 13 стал сильно быстрее работать на телефонах (S20-S21-S22), чем Андроид 11 и 12, там Самсунг оптимизировали всё и убрали всякие подёргивания местами. В Андроид 14 ещё немного улучшили. Поэтому советую поставить самую новую систему, хуже в любом случае не будет, дополнительной громоздкости нет, системы одинаковы по объёму и нагрузке на процессор. Больше влияют современные версии приложений.
Ну как не улучшают, если было 60 fps, а стало 120, т.е. настоящая живая картинка, ничем не отличается (!), если снизить настройки и получить 120 fps без DLSS3. Т.е. по итогу как будто процессор стал работать на 10ГГц, про это и пишу, какая разница как это получается, если итог одинаков.
Инпутлаг/отзывчивость не меняются, тем более есть технологии снижения инпутлага. Более того, даже если было 30 fps, а стало 60 fps после DLSS3, то и при таких 60 стало колоссально приятнее играть и сразу легче стрелять по монстрам, как при настоящих 60… Разницы нет, возможно киберспорстмены могут что-то заметить, но они зарабатывают своей игрой хорошие деньги и играют на низких настройках и на топ железе. Советую вживую (!) попробовать и все заблуждения и страхи сразу развеются.
Нет, fps же итоговый выше, то было скажем 70 с провалами до 40, а стало 140 с провалами до 80. Фактически такой fps может выдать только 10ГГц i9 тех старых серий, а тут работает на 5ГГц и далее DLSS3 удваивает fps. Оперативная память тоже как бы ускоряется вдвое. Вот при работе DLSS2 да процессор/память должны были выдавать этот fps, а только с видеокарты снималась работа.
У меня тогда была такая GTX 295. Все эти карты имели просчёт и погорели, мне мою обменяли на GTX 570 по гарантии. Кстати в тех игрушках, где SLI работал, GTX 570 выдавала примерно тоже самое или чуток больше.
Помимо 2х GPU в системе, в Диспетчере устройств ещё появлялось 2 шины PCI-E, это локальные шины от каждого GPU, до чипа коммутатора. И эти шины были PCI-E 2.0, и так карта определялась поэтому, что работает в режиме 2.0, хотя моя система на Intel 975X имела только PCI-E 1.0.
И опять же провалы и проблемы на APU и ровный fps хоть и на старичке, но флагманской карте прошлого. Не мучайтесь, возьмите 4060-4060Ti, до 10 раз разница с APU на реальных настройках.
В итоге будет бессмысленный APU, с которым будет работать 1070 вместо встройки, которую захочется выключить. Лучше взять 12400F, хороший и недорогой процессор, памяти вам хватит любой, базовой DDR4 или DDR5.
И я легко прохожу игру и меня не забивают, точно также как на моём мощном десктопе с RTX 4080, где карта может выдать эти же 60 без DLSS3.
И так во всех играх, пройдено уже штук 10, я пользуюсь DLSS3 с релиза этой фичи, с ноября 21 года.
Попробуйте вживую (!) говорю же, не читайте страхи в комментариях, ведь пишут их такие же как и вы, кто вживую DLSS3 не видел ни разу.
Инпутлаг/отзывчивость не меняются, тем более есть технологии снижения инпутлага. Более того, даже если было 30 fps, а стало 60 fps после DLSS3, то и при таких 60 стало колоссально приятнее играть и сразу легче стрелять по монстрам, как при настоящих 60… Разницы нет, возможно киберспорстмены могут что-то заметить, но они зарабатывают своей игрой хорошие деньги и играют на низких настройках и на топ железе. Советую вживую (!) попробовать и все заблуждения и страхи сразу развеются.