Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
>>Некоторые обозреватели на старте продаж новых карт отмечали, что у карт Intel Arc была ахиллесова пята в виде низкой производительности в играх, использующих DirectX 11. В нашем списке таких игр уже нет, все используют DX12 (либо Vulkan), проверить не можем.
________
А нельзя ли было сделать по этому поводу исключение, и зарядить всего-то одну игрушку, с приличной графикой. Ну третий Кризис например? Ибо одно дело — когда там оно тормозит. Но как тормозит? Ну будет в два раза медленнее RTX 3060, в Full HD то небось все одно хватит? А другое дело, когда в играх артефакты разные, а это тоже может быть вполне, ибо драйвера по понятно причине под старые проекты вылизывают по остаточному принципу.
Экономичнее — ну опять же, где? Ну я работаю с сайтом банка — скачать его страницу будет 0,1 секунда на новом AC, или 0,5 на старом N. Дальше я 3 минуты ввожу данные, и потом — опять, 0,1 или 0,5 секунды. Сколько там экономии то набежит? И это без учета того, что современные смарты так-то конечно быстрее по чипам, но и ОС то распухает, то на то и выходит, а на старушке года так 2016 (как у меня) новых Андроидов так-то не светит!
>>но при этом тут лишь Wi-Fi 5
Зачем больше для телефона? Я на «N» сижу, другого не поддерживает моя модель, и как бы хватает вполне, ~2 мегабайт в секунду качает. Вот что нужно делать на телефоне, чтобы этого стало мало?
Ну в общем, так и должно быть.
Ибо для обычного себе применения, как телефона с продвинутыми функциями, требовательность соответствующего ПО уже давно не растет. Условные браузеры, скайпы/виберы, Ютубы уже давно не тормозят даже на бюджетке. Растет конечно требовательность самой системы, т.к. она распухает, но в 3 гига обычно все вполне себе помещается. А тут (в зависимости от модификации) 4 или 6. Т.е. главное не взять совсем уж слабенькую модель с двумя гигами ОЗУ, и соответствующим CPU.
>>Если сравнивать с AMD, новинка Intel незначительно уступает Ryzen 7 7600X, но разницей можно пренебречь.
Пренебречь то можно. Конечно. Но от сравнения архитектуры никуда таки не деться, в очередной раз видно, что лучше быстрые ядра, если не числом, так частотой, чем медленные, которых от щедрот своих барин насыпал.
>>В итоге заряжается аппарат почти за два с половиной часа, и даже на восполнение заряда до 80% уходит более часа. Зато по тестовому сценарию DxOMark смартфон продержался 3 дня и 14 часов.
_________
Так-то ему хватит пол-часа, чтобы получить автономность среднюю по рынку. :)
Не могут в последний AVX, потому его ПРИШЛОСЬ вырезать и из больших ядер. Возможно, сделано это на уровне микрокода, но сути не меняет — последние процессоры Интел AVX512 не поддерживают. И да, их, начиная с 12-го поколения уже как бы и нельзя называть «Core». :)
Так на базах и не будет. Оптан рулит на мелкоблочке в один поток, а на сервере десятки и сотни клиентов сидят, пишут и читают, там и обычные (ну как обычные, так то серверные, но на обычном флеше) SSD практически не уступают.
Не столько, но Вы же пишите, что «Zen/Zen+ был шлаком — ессно, на фоне Zen 2/3».
Т.е. исходя из этого Вашего сообщения, вполне правомочно сравнить ZEN+ (скажем 2600X) и ZEN2 (3600X). И чего, там революционный рост производительности, что ли? +15-20% IPC, и еще меньше частоты, при неизменном количестве ядер.
У Core же 13-го поколения небольшой, но вполне измеримый рост IPC (процентов 5 навскидку), процентов семь рост частоты, и в полтора раза бОльшее количество ядер, что важно для мультипотока, собственно для того их добавили, не для фоновых же задач вдруг перестало хватать 8 ядер на частотах в районе 3,5 Ghz, многие люди всего имеют по 4 таких ядра в начального уровня ноутах, без производительных ядер, и вполне себе нормально им работается. :)
На игровых нагрузках 16 ядер совсем не нужно. Но если оно и так, и ASUS будет ставить именно 16-и ядерные процессоры AMD в свои игровые машины, то характеристики этих CPU достаточно очевидны: зверский буст на малопотоке, где мало — не более 2-4-х ядер, чего в впритык, но достаточно для основной работы движка. А остальные 12 ядер будут вариться на частотах в районе 2,5 Ghz для обслуживания фоновых процессов системы, и вторичных в самой игре. Условно говоря, для правильного ИИ и физики нужно 4 ядра по 5,7 гигагерца, но для обработки то звука они зачем? 2,5 по уши, там и один гигагерц то много!
При этом, очень даже может быть, что ватт в 80 впишутся. Ну и конечно же известный с давних лет принцип отбора лучший кристаллов. В десктопе — первый кристалл максимальные частоты ценой высокого тока утечки, и нагрева, второй — ровно наоборот. Но если хорошенько поискать, то на небольшие партии (тысяч так 100 CPU в месяц) можно найти и холодные, и высокочастотные ядра, которые и пойдут в премиальные ноутбуки. Плюс тюнинг напряжения более точный, не (условно) 1,2 вольта, как для десктопа, где охлаждение так-то справится, а 1,15, которых так-то достаточно, но нужно убедиться лишний раз, что деньги! Для десктопа — и так сойдет, ибо процессор условно дешевый, а вот в ноутбучном, который заведомо дороже — можно и потратиться!
Да он то скоро выйдет, только вопрос не в этом.
Там будет 3d на новой архитектуре против 3d на старой. Сколько оно дает, можно посмотреть в тестах без 3d, которых уже валом. Выходит ~10%. Вот на эти 10% новый с 3d процессор и обойдет старого с 3d, при условии, что AMD с частотами у нового поступит так же, как и у старого, а именно — чуток, да порежет. Если не порежет, будет где-то 12-15%. Но это в идеальных условиях. Тут же еще нужно и фактор памяти учитывать. Почему здоровенный кеш дает бонус для 5800X3D? Да потому, что он гораздо быстрее, чем DDR4 3600, которая самая быстрая для этой архитектуры. Как следствие, на DDR5 5200, а тем более 6000 толку от кеша уже меньше, т.к. память и сама по себе неплохо дает. Вот и выйдет 7-10%. С одной стороны — тоже так-то прилично, с другой — это новая плата, новый процессор и новая память, которые дорогие. А даже если с нуля брать на AM4, то и плата, и процессор, и память — гораздо дешевле. А если не с нуля, то за полгода на пирожках сэкономить даже реально. :)
Да ежику понятно, что новая архитектура плюс DDR5 с тем же кешем будет быстрее, чем старая и DDR4. Но цена!
У мну одна знакомая, одноклассница сестры сыну брала четыре года назад, ну вышел там Ryzen 2600 по ее финансам.
И теперь вопрос: продать старый процессор, купить новый (понятно с доплатой), или продать старую платформу целиком, кроме корпуса и БП, и купить новую, которая да, будет процентов на 10 быстрее (видно по тестам без 3D-кеша процессоров, сколько она дает). Работает почтальоном тысяч за 20-25 та женщина, мужа нет. Ну ка, что она выберет, когда того процессора реально перестанет хватать (если перестанет)?
Батерея меняется пользователем?
Ну т.е. там стандартные 18650, или «фирма», которую менять только в СЦ?
И еще вопрос, можно ли повысить автономность, запитав ее от внешнего PB? Или там на входе не стандартное напряжение, а что-то фирменное, типа 19 вольт или около того? Ибо на вечерок ее то наверное хватит, на средней то громкости, но а как на майские праздники на озеро с ночевкой например?
Странно, да?
Раза в полтора-два дешевле, чем 6-8 ядер на новой архитектуре, ставится в бюджетную плату на B450, а то и на «A» чего-то там, просит по себя дешевую память, и обеспечивает ту же производительность. И его почему-то берут!
А в чем проблема шины? Эта плата качает на своих 192 разрядах быстрее, чем платы четырехлетней давности на 256, просто потому, что там DDR6x память, а не 6, тем более не 5.
Так архитектуру тоже нужно учитывать.
Никого же не удивляет, что (условно) Core 2022 года не медленнее, а то и быстрее, чем Core 2018-го года при меньшем количестве ядер?
Ну там актуальный i3 например против тогдашнего i5?
Придут совместимые из КНР. Да, там хватает прямо скажем не очень хороших моделей, но есть и вполне себе приличные, благо зачастую фирменные и «левые» — это один и тот же завод, днем для «фирмы», ночью — «для себя».
Ну это… больше не меньше. Но оно важно, когда даром, т.е. и плата не дороже, та, которая с поддержкой, и SSD столько же стоит. А это по понятной причине не соблюдается в случае плат, и наверняка не будет соблюдаться в случае SSD, когда оные появятся.
А так, на типичном ПК разницу даже между SATA и NVMe приходится с лупой искать, ибо типичной же системе ~30 тыс IOPS достаточно по уши. Разница с «вау»-эффектом была десять лет назад, когда SSD в принципе стали сколь-нибудь массовыми, и стали покупаться как «загрузочные», там — ну да, 10 тыс IOPS против 100 IOPS на HDD — оно чувствовалось. Чуствовалось просто потому, что во-первых, оно стало сразу в 100 раз быстрее, а во-вторых, ОС так-то 100 IOPS маловато. Вот и были дикие восторги, кипятком писяли! Сейчас же это 30 тыс. против где-то 200 тыс, ну во-первых — 30 тыс. уже в целом неплохо, а во-вторых, рост всего раз в пять-десять, а не в сто — ну не прощупывается особой разницы по ощущениям! Бенчами увидеть можно, а вот чтобы на глазок — не выходит. Тем более, никакой разницы не будет видно в случае смены интерфейса. Вырастут лишь линейные скорости, а мелкоблочка уже давно практически не зависит от интерфейса, она по большей части в скорость самого флеша упирается. Собственно, не открою Америку, если скажу, что Intel Optane рулит как раз там, где данные читаются и пишутся мелким блоком, да в один поток, т.к. память -гораздо быстрее. И древний PCI-e 3.0 ему тут никак не мешает. :)
________
А нельзя ли было сделать по этому поводу исключение, и зарядить всего-то одну игрушку, с приличной графикой. Ну третий Кризис например? Ибо одно дело — когда там оно тормозит. Но как тормозит? Ну будет в два раза медленнее RTX 3060, в Full HD то небось все одно хватит? А другое дело, когда в играх артефакты разные, а это тоже может быть вполне, ибо драйвера по понятно причине под старые проекты вылизывают по остаточному принципу.
Зачем больше для телефона? Я на «N» сижу, другого не поддерживает моя модель, и как бы хватает вполне, ~2 мегабайт в секунду качает. Вот что нужно делать на телефоне, чтобы этого стало мало?
Ибо для обычного себе применения, как телефона с продвинутыми функциями, требовательность соответствующего ПО уже давно не растет. Условные браузеры, скайпы/виберы, Ютубы уже давно не тормозят даже на бюджетке. Растет конечно требовательность самой системы, т.к. она распухает, но в 3 гига обычно все вполне себе помещается. А тут (в зависимости от модификации) 4 или 6. Т.е. главное не взять совсем уж слабенькую модель с двумя гигами ОЗУ, и соответствующим CPU.
Пренебречь то можно. Конечно. Но от сравнения архитектуры никуда таки не деться, в очередной раз видно, что лучше быстрые ядра, если не числом, так частотой, чем медленные, которых от щедрот своих барин насыпал.
_________
Так-то ему хватит пол-часа, чтобы получить автономность среднюю по рынку. :)
Т.е. исходя из этого Вашего сообщения, вполне правомочно сравнить ZEN+ (скажем 2600X) и ZEN2 (3600X). И чего, там революционный рост производительности, что ли? +15-20% IPC, и еще меньше частоты, при неизменном количестве ядер.
У Core же 13-го поколения небольшой, но вполне измеримый рост IPC (процентов 5 навскидку), процентов семь рост частоты, и в полтора раза бОльшее количество ядер, что важно для мультипотока, собственно для того их добавили, не для фоновых же задач вдруг перестало хватать 8 ядер на частотах в районе 3,5 Ghz, многие люди всего имеют по 4 таких ядра в начального уровня ноутах, без производительных ядер, и вполне себе нормально им работается. :)
При этом, очень даже может быть, что ватт в 80 впишутся. Ну и конечно же известный с давних лет принцип отбора лучший кристаллов. В десктопе — первый кристалл максимальные частоты ценой высокого тока утечки, и нагрева, второй — ровно наоборот. Но если хорошенько поискать, то на небольшие партии (тысяч так 100 CPU в месяц) можно найти и холодные, и высокочастотные ядра, которые и пойдут в премиальные ноутбуки. Плюс тюнинг напряжения более точный, не (условно) 1,2 вольта, как для десктопа, где охлаждение так-то справится, а 1,15, которых так-то достаточно, но нужно убедиться лишний раз, что деньги! Для десктопа — и так сойдет, ибо процессор условно дешевый, а вот в ноутбучном, который заведомо дороже — можно и потратиться!
Там будет 3d на новой архитектуре против 3d на старой. Сколько оно дает, можно посмотреть в тестах без 3d, которых уже валом. Выходит ~10%. Вот на эти 10% новый с 3d процессор и обойдет старого с 3d, при условии, что AMD с частотами у нового поступит так же, как и у старого, а именно — чуток, да порежет. Если не порежет, будет где-то 12-15%. Но это в идеальных условиях. Тут же еще нужно и фактор памяти учитывать. Почему здоровенный кеш дает бонус для 5800X3D? Да потому, что он гораздо быстрее, чем DDR4 3600, которая самая быстрая для этой архитектуры. Как следствие, на DDR5 5200, а тем более 6000 толку от кеша уже меньше, т.к. память и сама по себе неплохо дает. Вот и выйдет 7-10%. С одной стороны — тоже так-то прилично, с другой — это новая плата, новый процессор и новая память, которые дорогие. А даже если с нуля брать на AM4, то и плата, и процессор, и память — гораздо дешевле. А если не с нуля, то за полгода на пирожках сэкономить даже реально. :)
У мну одна знакомая, одноклассница сестры сыну брала четыре года назад, ну вышел там Ryzen 2600 по ее финансам.
И теперь вопрос: продать старый процессор, купить новый (понятно с доплатой), или продать старую платформу целиком, кроме корпуса и БП, и купить новую, которая да, будет процентов на 10 быстрее (видно по тестам без 3D-кеша процессоров, сколько она дает). Работает почтальоном тысяч за 20-25 та женщина, мужа нет. Ну ка, что она выберет, когда того процессора реально перестанет хватать (если перестанет)?
Ну т.е. там стандартные 18650, или «фирма», которую менять только в СЦ?
И еще вопрос, можно ли повысить автономность, запитав ее от внешнего PB? Или там на входе не стандартное напряжение, а что-то фирменное, типа 19 вольт или около того? Ибо на вечерок ее то наверное хватит, на средней то громкости, но а как на майские праздники на озеро с ночевкой например?
Раза в полтора-два дешевле, чем 6-8 ядер на новой архитектуре, ставится в бюджетную плату на B450, а то и на «A» чего-то там, просит по себя дешевую память, и обеспечивает ту же производительность. И его почему-то берут!
Аналогично, 11, 10 и до Core2Duo включительно.
Никого же не удивляет, что (условно) Core 2022 года не медленнее, а то и быстрее, чем Core 2018-го года при меньшем количестве ядер?
Ну там актуальный i3 например против тогдашнего i5?
А так, на типичном ПК разницу даже между SATA и NVMe приходится с лупой искать, ибо типичной же системе ~30 тыс IOPS достаточно по уши. Разница с «вау»-эффектом была десять лет назад, когда SSD в принципе стали сколь-нибудь массовыми, и стали покупаться как «загрузочные», там — ну да, 10 тыс IOPS против 100 IOPS на HDD — оно чувствовалось. Чуствовалось просто потому, что во-первых, оно стало сразу в 100 раз быстрее, а во-вторых, ОС так-то 100 IOPS маловато. Вот и были дикие восторги, кипятком писяли! Сейчас же это 30 тыс. против где-то 200 тыс, ну во-первых — 30 тыс. уже в целом неплохо, а во-вторых, рост всего раз в пять-десять, а не в сто — ну не прощупывается особой разницы по ощущениям! Бенчами увидеть можно, а вот чтобы на глазок — не выходит. Тем более, никакой разницы не будет видно в случае смены интерфейса. Вырастут лишь линейные скорости, а мелкоблочка уже давно практически не зависит от интерфейса, она по большей части в скорость самого флеша упирается. Собственно, не открою Америку, если скажу, что Intel Optane рулит как раз там, где данные читаются и пишутся мелким блоком, да в один поток, т.к. память -гораздо быстрее. И древний PCI-e 3.0 ему тут никак не мешает. :)