Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
ну вот поэтому попробуйте дополнить отключением AVX512 в P-ядрах так как есть вероятность что они включились после отключения E-ядер, так как в них только AVX2 и особенность текущих ПК и ОС в том, что независимо от производительности и разнотипности ядер между P и E требует их совместимости на уровне поддерживаемых функций, поэтому при включенных E ядрах AVX512 на основных P-ядрах отсутствует. Когда отключаете E ядра, то необходимость по совместимости поддерживаемых команд отпадает и P-ядра включают AVX512 (при их наличии). Поэтому можете их переключить из состояния Auto (так обычно стоит по умолчания в BIOS) в статус Diasble/OFF.
avatar
Во первых DSC ещё нужно включать предварительно на источнике видеосигнала:
https://www.dell.com/support/kbdoc/ru-az/000197102/инструкции-по-включению-display-stream-compression-on-latitude-precision-and-xps
— даже включив это и найдя подходящий кабель способный на DP1.4+DSC, не факт что приёмник видеосигнала захочет его принять. И он провалит тест отображения:
https://habr.com/ru/articles/378605/
Во-вторых сжатие и распаковка DSC вносит задержку (что не критично для фильмов например, но для игр может быть фатальным):
https://xakep.ru/2014/04/23/62401/
— в стандарте VESA задержка равна 8 микросекундам на 1 прогрессивную строку видеосигнала, для 4K/2160p это соответственно 8*2160=17280 мкс или 17,28 мс, сколько нужно на распаковку я не нашёл но пусть примем, что это более быстрый процесс и поэтому округлим до 20 мс. Вроде немного? Но если поделить 1 секунду (1000 миллисекунд) на эту задержку, то выходит, что лаг увеличивается на 1000/20=50 кадров! Это существенно даже для такого крутого монитора с 240 FPS — за это время вас уже убьют и возможно не один раз в хардкорной игре.
В-третьих — индустрия даже современнейших видеокарт (RTX 4090) ещё не готова к таким частотам при таких разрешениях:
https://ks-is.com/pochemu-displayport-2-1-mozhet-imet-bolshoe-znachenie-dlya-kompjyuternyh-igr-v-2023-godu
avatar
Не удивительно! То ли ранее был Ryzen 5 3600X (сравним в играх всего-лишь с i5-10400), а стал Ryzen 7 5800X3D (это почти уровень 12600K)! Один только 5600X (аналог i5-12400) дал бы уже прикурить, благодаря новой архитектуре.
avatar
Я так понял у вас 12700K? Тут есть ещё такая фишка как AVX512 неофициально присутствующая в некоторых процессорах 12 поколения. Причём она работает только при отключении E-ядер. Проверьте возможно оно включилось у вас! Проблема в том что от неё резко возрастает потребление и тепловыделение CPU и может возникнуть ограничение потолка в Турбо бусте. В играх эта фича не нужна и если её также в BIOS принудительно отключить (либо повысить оффсет снижения частоты с бОльшим шагом) — может снизиться общее тепловыделение и энергопотребление процессора и соответственно рост частот некоторых ядер при одно- или мало-поточной нагрузке (что часто и бывает в играх). Возможно это даст вам ещё некоторый прирост в данной игре.
avatar
У вас видимо устаревшие представления — вот довольно старый тест:
12600K/12900K/5800X3D выступают на равных после выключения E-ядер на Интел в данной игре:
https://youtu.be/gOoB3dRcMtk?si=c_aN9qiXmh7PwTIB&t=77
Тут обычный тест и видим что 13700K только благодаря увеличенному кешу, несмотря на его идентичность по типам и кол-ву ядер с 12900K существенно обгоняет и его и даже 5800X3D причём без оптимизаций с E-ядрами!
https://www.pcgameshardware.de/World-of-Warcraft-Dragonflight-Spiel-73654/Specials/WoW-Dragonflight-Benchmarks-Anforderungen-1408516/2/
— если бы в этом тесте отключить E-ядра, то 13700K нагнал бы и 7800X3D в WoW.
в 14 серии кеш ещё увеличен по сравнению с 13 серией. Так что не удивлюсь если даже 14600K не уступит 7800X3D, достаточно отключить E-ядра для старых игр, что легко делается нажатием Scroll Lock (предварительно включив функцию Legacy Game Compatibility Mode в настройках BIOS на платах ASUS, Asrock и MSI на 12+ поколениях Интел).
avatar
Немного непонятно как тестировалось всё с разной памятью. По описанию тестовой системы у вас:
Оперативная память:
32 ГБ (2×16 ГБ) DDR5-5200 CL40 G.Skill Ripjaws S5 (F5-5200U4040A16GX2-RS5W)
32 ГБ (2×16 ГБ) DDR5-6200 CL40 Patriot Viper Venom (PVV532G620C40K)
а на скринах AIDA64 почему-то с 14900K, 13900K и 7800X3D используется память 5200MHz, а c i7-14700K уже 5400MHz (которой вообще нет в тестовом описании). А 6200 нигде более не упоминается! Почему сравнение проведено в не равных условиях? Причём с разной и низкоскоростной памятью?
Да и ваш Накопитель: Kingston KC2000 SSD 2 ТБ (SKC2000M8/2000G) — всего лишь PCIe 3.0 x4, что давно не блеск в текущих условиях. Навряд ли он мог повлиять на тесты, но всё же чтобы убрать влияние ограничений стоит использовать что-то по-современнее из топов на PCIe 4.0 x4.
avatar
Уточнение — всё же тут звук не настолько фантастически реализован: «The 32GS95UE further enhances the user experience with its minimal screen bezels and powerful, nuanced sound. LG's 4-side virtually borderless design provides a stunning display that doesn't distract from the on-screen action. The monitor creates an exhilarating, three-dimensional soundscape with Pixel Sound technology and an integrated front-facing sound system featuring two woofers and support for DTS Virtual:X. The speakers are cleverly hidden behind the OLED panel itself, eliminating the need for external speakers and saving valuable desk space.»
avatar
Кстати, многие авторы, а точнее репостеры этой новости забывают, а скорее не замечают ещё одну интересную фишку в данном мониторе: «Ещё одна новая функция 32GS95UE — технология Pixel Sound, при которой динамики интегрированы в саму OLED-панель.» — звук (стерео+саб) генерирует матрица!
avatar
Странно но в нём интерфейс DisplayPort 1.4 — это максимум будет 4K/144Hz — как же 240Hz получить? Скорее всего секрет кроется в маркетинге с рекламируемой функцией «Dual-Hz» — удвоение частоты силами самого монитора. То есть в игре и на видеокарте будут 120Hz c дублированием (что хуже) или интерполяцией (что лучше) кадров на матрице. Интересно будет посмотреть на качество картинки с функциями генерации кадров в режимах DLSS3.0/FSR3.0.
avatar
«Согласно ранним данным, RTX 4070 Super будет продаваться параллельно с RTX 4070, а вот две другие новинки полностью заменят текущие модели на рынке. » — вангую, что:
1. при одновременном наличии в продаже 4070 и 4070S цены MSRP должны быть 599 и 699 соответственно. Круто будет если на 4070S цену поставят ту же 599, а 4070 понизят до 499, что маловероятно, так как там уже 4060Ti/16 поджимает. При таких ценах обе карты остаются привлекательны в своих сегментах.
2. 4070TiS заменяет 4070Ti, но цена навряд ли останется такой же, так как чип от 4080 и памяти больше 16ГБ, так что прибавка цены всё же будет и не 100, а скорее всего на 200 долларов, то есть 999. Если всё же прибавка окажется всего в 100 — то это очень круто, надо брать!
3. 4080S очень мало отличается от 4080, так что есть вероятность, что цена останется 1199, но учитывая рыночные тенденции на старшие карты и их востребованность в AI, всё же скорее всего добавят 100 сверху и получим 1299 долларов. Учитывая что 4090 улетела вверх и при сохранности в цене у 4080* — маст хев!
avatar
14700K сейчас самый оптимум
avatar
А 12400 позволит не пережидать, а остаться надолго если не на совсем в системе.
avatar
12400/12500/12600 без E-ядер — 6 P-ядер разве не хватит для 1С?
avatar
Толщиной как ноутбук и весом килограмма полтора?
avatar
Как всегда в ваших обзорах никогда нет фото стороны БП с подключениями без кабелей. Это ведь наглядно и очень удобно!
avatar
Игра удалась однозначно! При этом там тонна багов, деревянной анимации, технических огрехов, нестыковок. Но играешь и всё это прощаешь! Потому что там отличный сюжет, мясо/кровь/кишки, мрачная гнетущая атмосфера на улицах, и одновременно криминально-политический сарказм и юмор по радио/ТВ/в разговорах прямо в тему и по феншую, непередаваемое погружение в знакомые места (привет — полицейский участок), знакомые персонажи из фильма — всё смотрится гармонично и аутентично! Возможно это только для 40-50+ так действует? Но и мои дети-подростки обоих полов любят Робокопа и с удовольствием смотрят как сам фильм так и теперь игру.
avatar
Для 5200U это наверно был косяк 20-летней давности маркетолога НВидии? Вообще они эту приставку кажется не использовали после 8800 Ultra?
По второму вопросу — были 1660 Super Ti — где Ti была чуть лучше Super. Поэтому улучшенная 4070 Super будет послабее экстремальной версии 4070 Ti и тем более её улучшенной экстремальной версии 4070 Ti Super.
avatar
Да толку от выпуска 14 серии? 13600K обогнал 12700K, 13700K сравнялся или даже чуть опередил 12900KS, а 13900K/KS стал новым королём. Тут же прибавка только у 14700K да и то к 13900K он всё же не приблизился, а энергопотребление даже выше! 14900K на уровне 13900KS, но может сливать ему при многопоточке из-за ограничения TDP.
avatar
Как можно потерять сумку, когда она постоянно пристёгнута к скафандру? И при работах она не должна отсоединяться, а только выниматься инструменты по одному и тоже с закреплением к рукавицам. Дамочка как на Земле по привычке сумку на капот поставила и тут же забыла?
avatar
Берите 4090 пока она доступна по цене и наличию. Если и выйдет 4090 Ti то прибавка будет мало заметная, а цена гораздо больше.